Show Less
Open access

Unsicherheit als Herausforderung für die Wissenschaft

Reflexionen aus Natur-, Sozial- und Geisteswissenschaften

Series:

Edited By Nina Janich and Lisa Rhein

Das Buch präsentiert eine disziplinäre Vielfalt an Perspektiven auf Unsicherheit in der Wissenschaft. Schwerpunkte sind Klimaforschung, Umweltwissenschaft und Technikfolgenabschätzung. Die Beiträge diskutieren Gründe und Folgen wissenschaftlicher Unsicherheit und einer entsprechenden Verantwortung der Wissenschaft. Vertreten sind Kommunikationswissenschaft, Linguistik, Philosophie, Politikwissenschaft, Soziologie und Volkswirtschaftslehre sowie Chemie und Klimawissenschaft.

Der Band dokumentiert die ungewöhnliche Kooperation zweier Schwerpunktprogramme der Deutschen Forschungsgemeinschaft – «Wissenschaft und Öffentlichkeit» und «Climate Engineering: Risks, Challenges, Opportunities?» –, die sich auf einer Tagung an der TU Darmstadt mit weiteren WissenschaftlerInnen zu Austausch und kritischer Reflexion getroffen haben.

Show Summary Details
Open access

Der ökonomische Wert von Klimainformation: Zur Neuinterpretation von Klimazielen unter antizipiertem Lernen (Hermann Held)

Hermann Held (Hamburg)

Der ökonomische Wert von Klimainformation: Zur Neuinterpretation von Klimazielen unter antizipiertem Lernen

Abstract: How much would a rational decision maker be willing to invest in the reduction of uncertainty of climate projections by an order of magnitude? This seemingly technical question requires shedding some light on the foundations of the two leading schools of thought within climate economics: cost benefit and cost effectiveness analysis. While the former takes off from the most solid axiomatic basis, its results are currently not robust regarding some hard to determine input parameters. The latter operationalizes politically decided environmental targets that can be interpreted as an expression of strong sustainability. The 2°C target is of that sort. However under anticipated future learning fundamental conceptual difficulties appear within an interpretation as a hard limit. We offer a new, softer interpretation of the 2°C target that avoids these difficulties. Among other advantages of this new interpretation the question about the expected economic value of the reduction of climate response uncertainty regarding greenhouse gas emissions becomes a well-posed one. Perfect learning in that regard could on average save up to hundreds of billions of Euros per year if a stringent 2°C policy were pursued. It remains to be shown whether our softer interpretation is the only interpretation of a target that would be consistent with learning, or whether a third way between the traditional “hard” and our “soft” interpretation were possible.

Keywords: Unsicherheit – Risiko – Standardansatz – Vorsorgeansatz – Kosten-Nutzen-Analyse – Kosten-Effektivitäts-Analyse – Kosten-Risiko-Analyse – Klimapolitik

1 Einführung

Welchen ökonomischen Wert hätte es, die Unsicherheit von Klimaprojektionen zu verringern? Mit dieser Frage verbindet sich zunächst eine praktische Bedeutung, denn mit ihrer Beantwortung hängt eine zweite Frage eng zusammen, in welchem Umfang Klimawissenschaften vielleicht beschleunigt zu fördern wären, falls die Gesellschaft sich ernst gemeinte Klimaziele setzt. Dass der Eliminierung von Unsicherheit überhaupt ein ökonomischer Wert zuzuweisen ist, liegt letztlich daran, dass bessere Information über die Zukunft der Gesellschaft eine bessere Planbarkeit ermöglicht und sie sich dann nur noch gegenüber einem engeren Spektrum von Zukünften abzusichern braucht.←31 | 32→

Hinter dieser technokratisch wirkenden Eingangsfrage verbergen sich jedoch bislang ungeklärte Grundsatzfragen zur Bewertung von Klimapolitik-Optionen unter heterogener Unsicherheit. Unter Unsicherheit verstehen wir hier die Wissensdifferenz zu perfektem Wissen (insbesondere über die Konsequenzen unserer Entscheidungen) und folgen hierin der Definition des Weltklimarates IPCC (International Panel for Climate Change) (vgl. Mastrandrea et al. 2010): In Vorbereitung auf seinen fünften Sachstandsbericht (2013/2014) hatte sich der IPCC erstmalig dem Anspruch unterzogen, sich auf einen für alle seine drei Arbeitsgruppen verbindlichen Umgang mit Unsicherheit zu verständigen. In Bezug auf den Begriff der Unsicherheit selbst musste er sich im Wesentlichen zwischen zwei Begriffstraditionen entscheiden – derjenigen der Klimawissenschaft und derjenigen der Ökonomie. Die Klimawissenschaft versteht unter Unsicherheit das Komplement des Wissens – also alles dasjenige, was im jeweiligen Kontext an wünschbarem Wissen fehlt. Probabilistisch formulierbares Wissen stellt hierbei nur eine von mehreren Unsicherheitskategorien dar. Hingegen grenzt ein Teil der ökonomischen Community seit Knight (1921) Unsicherheit von Risiko ab: Risiko bezeichnet hier die Möglichkeit, Handlungsfolgen-Kategorien vollständig und probabilistisch gewichtet prognostizieren zu können. Unsicherheit bezeichnet demgegenüber die Situation, keine solchen probabilistischen Gewichte oder noch nicht einmal alle Handlungsfolgen-Kategorien angeben zu können, markiert gewissermaßen „weicheres“ Wissen. Der IPCC ist der Tradition der Klimawissenschaft gefolgt (vgl. Mastrandrea et al. 2010) und wir schließen uns dem hier an: Unsicherheit stellt daher einen Sammelbegriff dar für alles, was wir in einem bestimmten Kontext nicht wissen, aber gern wissen würden. Heterogene Unsicherheit möge hier den Umstand bezeichnen, dass wir derzeit gewisse Subsysteme des gekoppelten Systems aus Klima und Gesellschaft mit qualitativ größerer Unsicherheit als andere Subsysteme zu beschreiben vermögen.

Im Folgenden wird ausgeführt, dass die beiden derzeit prominentesten und seit zwei Jahrzehnten betriebenen Schulen der Klimaökonomik grundlegende konzeptionelle Schwierigkeiten damit haben, unter unserer derzeitigen Wissens- und zugehörigen Unsicherheitsstruktur des Klimaproblems robuste Empfehlungen zu liefern. Aus diesem Grunde schlugen wir vor einigen Jahren einen Hybridansatz beider Schulen vor (vgl. Schmidt et al. 2011). Dieser erlaubt es u. a. erstmalig, den ökonomischen Wert der Verringerung von Unsicherheit unter einer 2°C-Politik als gut gestellte Frage zu formulieren und damit auch zu beantworten. Daher sollen nun zunächst die beiden Standardansätze der Klimaökonomik vorgestellt und in ihren Konsequenzen für Klimapolitik-Empfehlungen ausgeleuchtet werden.←32 | 33→ Hierbei wird besonderes Augenmerk auf ihren Umgang mit Unsicherheit gerichtet. Schließlich werden unser Hybridansatz und dessen Konsequenzen erläutert.

Entlang dieser Sequenz wird auf Qualitätskriterien eingegangen werden, die uns als notwendig oder zumindest wünschenswert erscheinen, um beim heutigen Stand des Wissens (natürlich stilisierte) klimapolitische Empfehlungen unter Unsicherheit abzuleiten. Die Liste derartiger Qualitätskriterien liest sich wie folgt:

1. Dass Unsicherheit im betrachteten Problem einen Effekt erster Ordnung darstellt, legt nahe, Unsicherheit auch explizit bei klimapolitischen Entscheidungen zu berücksichtigen.

2. Da unstrittig ist, dass derzeit keine Obergrenze für die Sensitivität des Klimasystems gegenüber anthropogenen Treibhausgas-Antrieben angegeben werden kann, darf ein Entscheidungskriterium auch nicht rein numerisch-pragmatisch eine derartige Obergrenze als Hilfsgröße annehmen.

3. Angesichts andauernder Beobachtung des Klimasystems sowie fortgesetzt verfeinerter Beschreibung naturräumlicher Prozesse, die diese Sensitivität festlegen, ist davon auszugehen, dass wir kontinuierlich über die Sensitivität des Klimasystems dazulernen. Die Meinungen gehen darüber auseinander, wie zügig dieser Lernprozess voranschreiten kann. Wir halten es jedoch für wünschenswert, denjenigen, die eine bestimmte Erwartungshaltung hinsichtlich signifikanten Dazulernens einnehmen, ein Angebot zu machen – ein Angebot in Gestalt eines Entscheidungskalküls, das mit der Vorstellung eines Dazulernens über die Sensitivität des Klimasystems nicht strukturell überfordert ist.

4. Die Meinungen gehen weit darüber auseinander, bis zu welchem Grade die Klimawandelfolgen in ihrer Gesamtheit derzeit überhaupt darstellbar und dann auch noch monetarisierbar sind. Uns erscheint es als wünschenswert, denjenigen, die eine derartige Monetarisierung beim derzeitigen Kenntnisstand als so schwierig erachten, dass jedweder Unsicherheits-Formalismus überfordert wäre, ein Entscheidungskalkül anbieten zu können, das ohne eine derartige Monetarisierung auskommt.

5. Ferner ist als „Meta-Kriterium“ zu fordern, dass sämtliche Eingangsgrößen, die ein Entscheidungskalkül benötigt, auch tatsächlich und robust angegeben werden können.

6. Schließlich wird man dem „Meta-Kriterium“ zustimmen müssen, dass ein Kalkül eine Lösung zu liefern hat, andernfalls ist es schlicht nutzlos für eine Gesellschaft.

Diese Liste wünschbarer Eigenschaften von Entscheidungskalkülen ist selbstverständlich nicht vollständig. Etwa fehlt der Wunsch, dass sämtliche „Win-win-←33 | 34→Optionen“ abgeschöpft sein mögen, dass also z. B. nicht nutzlos „Geld verbrannt“ werde. Jedoch möchten wir hier auf diejenigen Eigenschaften fokussieren, hinsichtlich derer sich die prominenten klimaökonomischen Schulen in Bezug auf ihren Umgang mit heterogener Unsicherheit unterscheiden.

2 Unsichere Folgen des Klimawandels: Zwei Begründungsstränge für Klimaschutz

Die beiden oben erwähnten klimaökonomischen Schulen wurzeln in je unterschiedlichen Auffassungen darüber, welche Gründe für klimapolitische Eingriffe akzeptiert werden. Im Folgenden wird dieses an der Klimapolitik-Option ‚Vermeidung‘ (im Gegensatz zu den Optionen ‚Anpassung‘ und ‚Climate Engineering‘) illustriert, weil sich hierzu der klimaökonomische Diskurs als am ausgereiftesten darstellt und wir fragen können, was sich hiervon für die Beurteilung von Anpassungs- und Climate-Engineering-Optionen nutzen ließe.

Der Standardansatz der Umweltökonomie zielt darauf, das Kabinett sämtlicher Klimawandelfolgen auszuleuchten, diese zu listen und zu monetarisieren. Sollte sich herausstellen, dass ein sich selbst überlassener Klimawandel in der Summe schädlicher wäre als die Dekarbonisierung des Energiesystems, könnte dieses den „rationalen“ Grund für eine Vermeidungspolitik liefern.

Liest man hingegen den gegenwärtigen Wissensatlas der Klimafolgenforschung so, dass jenseits gewisser Erwärmungswerte die Folgen noch nicht näherungsweise absehbar, angebbar oder gar monetarisierbar sind, könnte dieses ein Argument dafür liefern, eine entsprechende Erwärmung zumindest solange nicht zuzulassen, wie sich die Wissensbasis entsprechend mager darstellt. Dieses würde eine Umsetzung des Vorsorgeprinzips bedeuten. Gemäß diesem zweiten und entgegen dem ersten Ansatz würde sich eine Empfehlung für eine Vermeidungspolitik gerade aus einem Fehlen an Wissen ableiten. (Hierbei sollen keineswegs die Verdienste der Klimafolgenforschung geschmälert werden. Ein großer Anteil der klimawissenschaftlichen Zunft hegt jedoch Zweifel daran, dass die Totalität der Klimawandelfolgen für beliebige Erwärmungen zurzeit näherungsweise monetarisierbar sei, aller bislang erfolgten Anstrengungen zum Trotz.) Jedem dieser beiden Ansätze entspricht nun eine „ökonomische Schule“.

2.1 Der umweltökonomische Standardansatz

Aus dem Standardansatz folgt, im Verein mit weiteren Annahmen, die Kosten-Nutzen-Analyse der Umweltökonomik, das axiomatisch am besten begründbare Entscheidungs-Kalkül (vgl. Kunreuther et al. 2014; Savage 1954; von Neumann/←34 | 35→Morgenstern 1944). Das bedeutet, dass dieses Entscheidungskalkül auf wenige, scheinbar unmittelbar einleuchtende Annahmen zurückgeführt werden kann. Aufwendungen zur Umrüstung des Energiesystems, die bereits heute beginnen könnte, werden mit dadurch künftig vermiedenen Schäden verrechnet. Hierbei bezieht sich „künftig“ auf die dem Klimasystem inhärente Antwort-Zeitskala von 50 bis 1000 Jahren. Hieraus folgt sofort, dass die Frage, wieviel in den kommenden Jahrzehnten in Vermeidungspolitik zu investieren ist, wesentlich von der ökonomischen Diskontierung der Zukunft abhängt (d. h. dem Ausmaß, in dem die Zukunft gegenüber der Gegenwart abgewertet wird; auf eine derartige Abwertung läuft auch der Zins hinaus). Ein seit den 1990er-Jahren häufig in Varianten gefundenes Ergebnis der Kosten-Nutzen-Analyse (siehe z. B. Nordhaus 2008) ist, dass eine Erwärmung um 3,5°C gegenüber dem vorindustriellen Niveau wohlfahrtsoptimal ist und in diesem Zuge in den kommenden drei Jahrzehnten im Wesentlichen die globalen Emissionen einem Business-as-usual-Szenario folgen könnten. Insofern wären gegenüber den bereits erfolgten Minderungsverpflichtungen der letzten Conference of the Parties (2015) keinerlei weitere Anstrengungen erforderlich, die Opferung des 2°C-Ziels wäre volkswirtschaftlich rational.

Kritiker haben auf die hohe Sensitivität dieser Empfehlung gegenüber Zusatzannahmen unter Unsicherheit hingewiesen (vgl. Kolstad et al. 2014; Nelson 2013; Stern 2013). Am wohl stärksten hat jedoch Weitzman (2009) die aktuelle Verwendbarkeit der Kosten-Nutzen-Analyse des Klimaproblems für Politikberatung in Frage gestellt: Er legte dar, dass eine konsequente Übernahme der Klimasensitivitäts-Wahrscheinlichkeitsverteilung (d. h. des Übertragungsfaktors von Treibhausgaskonzentration auf Temperatur) in eine Kosten-Nutzen-Analyse unter möglichen extremen Annahmen bezüglich Klimawandelfolgen zu einem „unendlich großen“ Klimawandelschaden führen könne. Auf der Linie dieses Ansatzes liegt dann, dass wir eigentlich sofort eine maximal mögliche Vermeidungspolitik umsetzen müssten. (Zwar verwiesen Horowitz und Lange [2014] Weitzmans Ansatz auf einen engeren Gültigkeitsbereich, doch bleibt die Validität des Arguments als solche bestehen.) Man kann nun argumentieren, dieses sei das Beste, was die ökonomische Zunft derzeit liefern könne – die getroffenen Annahmen müssten eben Stakeholdern gegenüber transparent und die je folgende Empfehlung, die von nahezu „keiner“ bis zu „totaler“ sofortiger Vermeidungsanstrengung reichen kann, klar kommuniziert werden. Dieses ist eine Haltung, die durchaus nachvollziehbar eingenommen werden kann.

Man könnte jedoch auch dafür plädieren, dass eine Kosten-Nutzen-Analyse derzeit die klimawissenschaftliche Community in Bezug auf ihre Eingangs←35 | 36→datenseite überfordert. Die Unsicherheit der Klimawandelfolgen und ihrer Bewertung ist derzeit zu groß, um robuste Ergebnisse zu ermöglichen. Vermehrte Forschungsanstrengungen in entsprechender Richtung könnten hier schrittweise Abhilfe schaffen, jedoch besteht bereits heute gesellschaftlicher Bedarf an wissenschaftlicher Entscheidungs-Unterstützung, die Annahmen in greifbarerer Form als im Fall der Kosten-Nutzen-Analyse von Stakeholdern verlangt. Wegen des Budget-Effekts von Treibhausgasen (d. h. der Erkenntnis, dass einem Temperaturziel approximativ ein bestimmtes Budget an Kohlendioxid oder Kohlendioxidäquivalenten, über die Zeit summiert, entspricht) schließt sich das Fenster für das 2°C-Ziel in den kommenden zehn bis zwanzig Jahren (vgl. Meinshausen et al. 2009). Zudem wird durch die notwendige Renovierung des OECD-Kraftwerksparks und den Aufbau eines Energiesystems in den Schwellenländern eine Klimapolitik dieser Akteure in den kommenden zwei Jahrzehnten wesentlich festgelegt. Sollte die Kosten-Nutzen-Analyse eines Tages adäquat operationalisierbar sein, könnte es für die Gestaltung des realweltlichen Klimaproblems daher bereits zu spät sein.

In Bezug auf unseren eingangs angegebenen Forderungskatalog können wir zunächst festhalten, dass dieses Standardverfahren die Kriterien 1–3 erfüllt, was wir hier nicht im Einzelnen begründen können (siehe z. B. Gollier 2001). Kriterium 4 kann und will qua Konstruktion nicht erfüllt werden. Das Meta-Kriterium 5 ist jedoch aus unserer Sicht bis auf weiteres verletzt. Das Standardverfahren fordert Informationen, die derzeit nur unzureichend zur Verfügung stehen, und seine Ergebnisse reagieren nahezu beliebig auf schwer bestimmbare Eingangsgrößen. Schließlich wird das Meta-Kriterium 6 qua Konstruktion erfüllt, weil dem Standardverfahren eine unbeschränkte Optimierung zugrunde liegt, zu der stets eine formale Lösung gefunden werden kann.

Aus diesem Grunde vertritt ein Teil der klimaökonomischen Community eine Temperaturziel-gebundene Kosten-Effektivitäts-Analyse als notwendigerweise weniger objektives – minimal weniger objektives! –, jedoch kurzfristig verfügbares Entscheidungsinstrument (vgl. Kunreuther et al. 2014).

2.2 Eine mögliche Umsetzung des Vorsorgeprinzips: Die Kosten-Effektivitäts-Analyse des 2°C-Ziels

Wie ließe sich nun das Vorsorgeprinzip am Klimaproblem operationalisieren? Man kann fragen, welche natürliche Schwankungsbreite die globale Mitteltemperatur während der Entwicklung der Menschheit bereits erfahren hat. In der Tat wurden Erwärmungen gegenüber unserem vorindustriellen Standardklima von 1,5°C verzeichnet (vgl. Schellnhuber 2015: 453). Gesteht man Menschheit←36 | 37→ und Natur ein gewisses Anpassungspotenzial zu und fordert zugleich eine für den politischen Prozess einprägsame Zahl, gelangt man so zu 2°C maximal zu erlaubender Erwärmung.

Umgekehrt könnte man auch fragen, welcher Temperaturbereich vielleicht zu meiden sei, weil er qualitativ von dem unseren derart verschieden ist, dass wir ihn unter Vorsorgegesichtspunkten meiden sollten. Fragt man etwa, wie weit man in der Erdgeschichte zurückgehen muss, um denjenigen Temperaturhub wiederzufinden, den wir bis 2100 bei ungebremster Erwärmung erwarten dürfen (bis zu 5°C; vgl. IPCC 2013: Abb. 7), so wären dieses mindestens zehn Millionen Jahre (vgl. Zachos et al. 2001). Außerdem bewegte man sich so in einer Temperaturänderungs-Skala, die derjenigen des Eiszeit-Warmzeit-Übergangs gleicht (vgl. Abb. 1 und Schneider von Deimling et al. 2006a), der einen dramatischen Bruch in Gestalt der natürlichen Rahmenbedingungen, unter denen sich Kultur entwickeln musste, markiert.

Abb. 1: Temperaturverlauf mit und ohne Klimapolitik (adaptiert aus IPCC 2013: Abb. 7), ins Verhältnis gesetzt zum Eiszeit-Holozän-Übergang

image

In der Eiszeit reichten die Eispanzer bis in die mittleren Breiten und rahmten daher einen qualitativ anderen Lebensraum als heute. Eine Differenz von 5°C bedeutet daher eine „große“ Änderung. Ohne Klimapolitik würde die Menschheit nochmals eine Differenz derselben Größe induzieren, das Klimasystem gewissermaßen in eine „Heißzeit“ katapultieren (vgl. Abb. 1). Dieses wäre ein Temperaturbereich, wie er seit einer Skala von 10 Millionen Jahren nicht aufgetreten ist (vgl. Zachos et al. 2001). Die Einhaltung des 2°C-Ziels würde bedeuten, näher am „Standardklima“ zu verbleiben (dem Klima des Holozäns, das seit 10.000 Jahren←37 | 38→ vorherrscht) als am Klima der „Heißzeit“, wenngleich 2°C auf dieser Skala auch keine „kleine“ Änderung bedeuten. Das 2°C-Ziel lässt sich daher auf doppelte Weise aus einem Vorsorgegedanken ableiten.

Schließlich liefert eine Festlegung auf 2°C eine für den politischen Prozess hilfreiche Vergröberung in Gestalt einer einprägsamen, glatten Zahl, analog einer Geschwindigkeitsbeschränkung von 100 km/h. Das 2°C-Ziel will hingegen nicht sagen, dass bei dieser Temperatur ein objektiver „kritischer Schwellwert“ (etwa eine Bifurkation oder ein Phasenübergang) in der Natur vorliegt. Es handelt sich vielmehr um eine letztlich politisch gesetzte Orientierungsmarke, wenngleich eine akademisch gut informierte, die vermutlich das europäische Wertesystem hervorragend abbildet. Auf diese Analogie werden wir noch zurückkommen, wenn wir später unser neues Entscheidungskalkül motivieren werden.

Das ökonomische Entscheidungsinstrument der Kosten-Effektivitäts-Analyse ersetzt nun in diesem Kontext den Versuch, Klimawandelfolgen zu projizieren, durch die Vorschrift, das vordefinierte umweltpolitische Ziel einzuhalten, d. h. im Sinne der COPs seit 2009, eine Erhöhung der globalen Mitteltemperatur gegenüber dem vorindustriellen Niveau auf 2°C zu begrenzen. Diese wichtigste Präferenz wird dann ergänzt durch die nachgeschaltete Vorschrift, unter den so erlaubten Klimapolitikpfaden nach dem Optimum der ökonomischen Wohlfahrt zu fragen. Vereinfacht gesagt, liefert die Kosten-Effektivitäts-Analyse den kostengünstigsten Energiemix, um das 2°C-Ziel gerade noch einzuhalten.

In Bezug auf unseren eingangs angegebenen Forderungskatalog ist festzuhalten, dass das hier zuletzt vorgestellte Verfahren Kategorie 4 qua Konstruktion erfüllt. Genau durch diesen Umstand umgeht es die Instabilitäten des Standardverfahrens in Bezug auf Kategorie 5. Leider werden wir weiter unten finden, dass es in seiner traditionellen Form Schwächen in Bezug auf Kategorien 1–3 aufweist.

2.3 Vergleichende Betrachtung von Standard- und Vorsorgeansatz

Vergleicht man die hinter Kosten-Effektivitäts- und Kosten-Nutzen-Analyse liegenden Ansätze, so könnte man sagen, dass hinter beiden eine je andere Arbeitsteilung zwischen ökonomischem Formalismus und menschlicher Intuition steckt (vgl. Neubersch et al. 2014): Die Kosten-Nutzen-Analyse überantwortet alles dem Formalismus, während in der Kosten-Effektivitäts-Analyse ein Teil des Systems durch die vorgeschaltete Setzung des Klimaziels für die Analyse als nicht handhabbar „weggeschnitten“ wird. Was dort vor sich geht, wird schemenhaft durch erste Indikationen der Klimafolgenforschung wahrgenommen und es wird dann der Intuition „Dahin gehen wir nicht!“ gefolgt. Insofern stellt das 2°C-Ziel auch eine Ausprägung starker Nachhaltigkeit dar (vgl. Hediger 1999).←38 | 39→

Je mehr die Unsicherheit über Klimawandelfolgen reduziert wird, desto mehr bietet sich ein Wechsel von instinktbasiertem zu formalisiertem Entscheiden an. Diese sukzessive Verschiebung der Arbeitsteilung entfällt bei der Modellierung der Kosten der Umrüstung des Energiesystems: Dieses menschengemachte System ist qualitativ besser projizierbar als die Klimawandelfolgenkette (vgl. Stern 2007) und wird daher in beiden Entscheidungsinstrumenten formalisiert behandelt.

Abb. 2: Archetypischer Aufbau eines integrierten Modells zur temperaturzielbasierten Kosten-Effektivitäts-Analyse des Klimaproblems.

image

3 Das numerische Resultat einer Kosten-Effektivitäts-Analyse des 2°C-Ziels

Welchen volkswirtschaftlichen Aufwand bedeutet es nun, das 2°C-Ziel einzuhalten? Um diese Frage zu beantworten, werden Analysen mittels gekoppelter Klima-Energie-Ökonomie-Modelle benötigt, die eine Kosten-Effektivitäts-Analyse als Entscheidungskalkül in sich tragen (vgl. Abb. 2). Klimawandelfolgen werden nicht explizit modelliert, sondern es wird angenommen, dass diese stilisiert durch eine Temperaturobergrenze aufgefangen sind. Ein ökonomischer Kern erklärt globales Wachstum und projiziert das Ausmaß von Wohlfahrtseinbußen, das sich durch ein Aufzwingen eines Temperaturziels ergäbe. Die Ökonomie liefert Investitionen an den Energiesektor, dieser Energie als einen produktionssteigernden Faktor an die Volkswirtschaft zurück. Der Energiesektor ist in diverse Energietechnologien aufgespalten (bei hochauflösenden Modellen werden diese in einer Größenordnung von einhundert Technologien repräsentiert), worunter sich traditionelle fossile, aber auch konkurrierende, zunächst kostspieligere Niedrigemissions-Technologien befinden. Ein Klima←39 | 40→modul, das die Projektion der Maximaltemperatur komplexer Klimamodelle auf Zehntelgrad genau emuliert, prüft, ob die Maximaltemperatur im Einklang mit dem Klimaziel steht. Ist dieses nicht der Fall, werden Investitionen in den fossilen Sektor zugunsten des Niedrigemissions-Sektors zurückgenommen. So wird intertemporal der kostenminimale Energiemix gefunden, der gerade noch mit dem Temperaturziel verträglich ist.

Im Zuge des letzten IPCC-Berichts wurden ca. 1000 Klima-Energie-Ökonomie-Szenarien, im Modus der Kosten-Effektivitäts-Analyse generiert, ausgewertet und in eine Hand voll „Klimaschutz-Klassen“ eingeteilt (IPCC 2014: 12). Betrachtet man diejenige Klasse, die in etwa dem 2°C-Ziel entspricht, so ergibt sich, dass die Implementierung einer 2°C-Politik die globale Wachstumsrate im Mittel um 0,06 %/Jahr-Punkte absenken würde (vgl. IPCC 2014). Sowohl gegenüber einem erwarteten globalen Wachstum von 1,6 %–3,0 %/Jahr als auch gegenüber der Unsicherheit in dieser Spanne bedeutet dies eine „kleine“ Zahl.

Insofern liegt es für viele Betrachter nahe, dem 2°C-Ziel „geringe“ Kosten zu attestieren. Folgt man dieser Diagnose, stünde nunmehr die Tür offen zur Umsetzung des 2°C-Ziels; die Gesellschaft könnte diese geringe „Versicherungsprämie“ leicht zahlen, um sich gegen schwer abschätzbare Klimawandelfolgen abzusichern (die Analogie zur Versicherungsprämie gilt nicht streng, kann aber als nützliche Heuristik dienen). Insofern könnte man sagen, dass eine Verschiebung der Arbeitsteilung zwischen Formalismus und Intuition das eingangs beschriebene „Kosten-Nutzen-Patt“ aufgelöst hat. Die Tatsache, Kosten des 2°C-Ziels angeben zu können, bedeutet auch, überhaupt eine Lösung dieses Kosten-Effektivitäts-Problems gefunden zu haben. Kriterium 6 ist also numerisch erfüllt. Sollte sich jedoch eine Umsetzung des 2°C-Ziels um Jahrzehnte verzögern, könnte der Fall eintreten, dass es keine Lösung mehr gibt (vgl. IPCC 2014: 15).

Doch ist es wirklich „fair“, allein auf Grund der bislang aufgeführten Argumente den „Punkt“ an die Kosten-Effektivitäts-Analyse, zu Lasten der Kosten-Nutzen-Analyse, zu vergeben? Wir erinnern daran, dass die Schwäche der Kosten-Nutzen-Analyse am eklatantesten durch Weitzmans konsequente Einbeziehung der Unsicherheit über die Klimasystem-Antwort auf Treibhausgas-Antrieb vorgeführt wurde. Sie findet ihren formalen Ausdruck u. a. in der konsequenten Einbeziehung der Wahrscheinlichkeitsverteilung der Klimasensitivität. Wurde diese formalisierbare Unsicherheit in den oben erwähnten 0,06 %/Jahr-Punkten Wachstumseinbuße, abgeleitet aus Kosten-Effektivitäts-Analysen, adäquat berücksichtigt?←40 | 41→

3.1 Die probabilistische Verallgemeinerung der Kosten-Effektivitäts-Analyse

Was bedeutet es, das 2°C-Ziel einzuhalten, wenn die Temperaturantwort des Klimasystems unsicher ist? Zunächst hatte die Unsicherheit der Klimasensitivität bei der Formulierung des 2°C-Ziels wenig Beachtung gefunden. Es ist jedoch unmittelbar klar, dass die Klimasensitivität einen großen Einfluss auf das erlaubte Emissionsverhalten haben muss: Je größer die Sensitivität ist, desto stärker reagiert die globale Mitteltemperatur auf steigende Treibhausgas-Konzentrationen und desto weniger darf folglich pro vorgeschriebenem Temperaturziel emittiert werden.

Petschel-Held et al. (1999) und dann weiter ausführend Kriegler/Bruckner (2004) gaben einen analytischen Zusammenhang zwischen einem formulierten Temperaturziel T*, dem dann erlaubten Emissions-Budget E und der Klimasensitivität γ an: Für E lässt sich eine strenge obere Schranke Eo angeben, also E < Eo, mit image. Derzeit kann die Klimawissenschaft keine Obergrenze für γ angeben. Wollte sich die Gesellschaft in ihrem Emissionsverhalten auf das gesamte Unsicherheits-Regime von γ vorbereiten, müsste sie sich gegen beliebig große γ wappnen und hätte bereits in der Vergangenheit kein Emissionsbudget aufhäufen dürfen (denn limγ Eo=0). Daraus folgt unmittelbar, dass sich jedes noch so laxe Temperaturziel T* nur mit einer gewissen Wahrscheinlichkeit, aber nicht perfekt, einhalten lässt. Auch genügt es nicht, eine schlichte „Sensitivitätsstudie“ in Bezug auf γ in Kosten-Effektivitäts-Studien durchzuführen, weil nahezu jedes beliebige Emissionsbudget als „optimal“ eingeschätzt werden kann, je nachdem, welches γ verwendet wurde (vgl. Bürgenmeier et al. 2006; Held et al. 2009). Insofern ist es erforderlich, die ökonomische Analyse so zu verallgemeinern, dass die Unsicherheit in γ zu einem integralen Bestandteil jedes Entscheidungskalküls erhoben wird.

In Kleinen (2005) wurde das Konzept eines probabilistischen Temperaturziels formuliert. Neben die normative Setzung eines T* tritt dann noch die geforderte Wahrscheinlichkeit P*, dieses Ziel auch einzuhalten. Dieses bedeutet zugleich, dass eine Gesellschaft davon ausgeht, mit der Wahrscheinlichkeit 1-P* das Ziel zu verfehlen. Diese ethische Figur ist in unserer Gesellschaft tief verankert, etwa im Vorfeld der Genehmigung großtechnischer Anlagen wie z. B. Kernkraftwerken, bei denen eine ernste Störung nie ganz auszuschließen ist, deren Wahrscheinlichkeit aber als abschätzbar gilt. Diese „Weichspülung“ des 2°C-Ziels in ein nur noch probabilistisches Ziel wurde denn auch von der Öffentlichkeit ohne besondere Aufregung zur Kenntnis genommen. Im Vor←41 | 42→feld der COP 2009 in Kopenhagen wurde eine „Copenhagen Diagnosis“1 erstellt, in der das 2°C-Ziel stets gepaart mit einem P* von 66 % bis 75 % auftrat. Zwar erscheint dieses P* als ungewöhnlich niedrig, jedoch ist so das Ziel noch erreichbar (siehe Kriterium 6!) und kann daher weiterhin als Leitmotiv für die Klimaverhandlungen dienen.

Die entsprechende Verallgemeinerung einer Kosten-Effektivitäts-Analyse auf probabilistische Klimaziele wird „Chance Constraint Programming“ (CCP; vgl. Charnes/Cooper 1959) genannt. Im IPCC (2014) wurden ca. 1000 energieökonomische Szenarien ausgewertet, die im Modus der Kosten-Effektivitäts-Analyse bestimmt worden waren, also ohne explizite Berücksichtigung von Unsicherheit. Allerdings konnten Held et al. (2009) zeigen, dass sich in derartige Rechnungen näherungsweise eine CCP-Interpretation hineindeuten lässt. In der Tat wurden die nach Konzentrations-Kennziffern klassifizierten Einhaltungen von (T*, P*)-Zielen zugeordnet (vgl. IPCC 2014: 10). Jedoch bleibt offen, bis zu welchem Grade die so gefundenen Lösungen dann wohlfahrtsoptimal sind. Zusammenfassend kann daher festgehalten werden, dass im zentralen „0,06 %/Jahr-Punkte“-Ergebnis des letzten Sachstandsberichts des IPCC die Klimaantwort-Unsicherheit bereits gespiegelt und daher das Ergebnis als robust in dieser Hinsicht zu bezeichnen ist. In diesem Sinne sind näherungsweise Kriterien 1–2 erfüllt. Wie verhält es sich jedoch in Bezug auf Kriterium 3?

Schmidt et al. (2011) zeigen, dass in der Formulierung von CCP eine (folgenschwere) stillschweigende Annahme getroffen wurde, zu deren Rechtfertigung divergierende Meinungen existieren, nämlich dass künftiges klimawissenschaftliches Lernen über die Größe der Klimaantwort, insbesondere über die Klimasensitivität γ, vernachlässigbar sei. In der Tat haben sich seit dem Ende der 1970er-Jahre keine einschneidenden Änderungen der Unsicherheits-Einschätzung zu γ ergeben. Andererseits ist nicht auszuschließen, dass durch Assimilierung des Kohlendioxid-Temperatur-Zusammenhangs im letzten Glazial-Interglazial-Übergang qualitativ bedeutsames Lernen der Klimawissenschaft über γ und damit eine langfristige Reduktion der zugehörigen Unsicherheit möglich werden wird (vgl. Schneider von Deimling et al. 2006b). Auch Optionen, subskalige Wolkenprozesse aufzulösen, erscheinen vielversprechend (vgl. Klocke 2011). Insofern erscheint es als naheliegend, vom ökonomischen Entscheidungskalkül zu fordern, dass es auch antizipiertes künftiges Lernen zu verarbeiten, also Kriterium 3 zu entsprechen vermag.←42 | 43→

3.2 Der „Quasi-Weitzman-Effekt“ in der Kosten-Effektivitäts-Traditionslinie

Diese scheinbar harmlose formale Erweiterung von CCP auf antizipiertes Lernen stößt insbesondere am Klimaproblem auf fundamentale konzeptionelle Schwierigkeiten (vgl. Schmidt et al. 2011), deren Grundfigur bereits in der Entscheidungstheorie der 1970er-Jahre bekannt war (vgl. Blau 1974): Während das Standardverfahren jedem künftigen Lernen einen nicht-negativen ökonomischen Wert zuweist, könnte der erwartete ökonomische Wert von Lernen im Falle von CCP negativ sein. Erweitert man etwa das CCP des gekoppelten Klima-Energie-Ökonomie-Modells MIND (vgl. Edenhofer et al. 2005) um antizipiertes Lernen (z. B. in 2030), wird genau dieser Effekt gefunden (vgl. Schmidt et al. 2011). Die Gesellschaft würde demnach sogar noch Mittel dafür aufwenden, gewisse Forschungsfragen nicht beantwortet zu bekommen. Dieses ist mit der Werteordnung einer Gesellschaft, die Entscheidungen unter möglichst fundierten, wissenschaftlich gefundenen Rahmenbedingungen treffen möchte, nicht vereinbar. CCP verletzt Kriterium 3.

Noch gravierender ist folgender Effekt: Ein Entscheider sollte sich bereits heute auf die Möglichkeit vorbereiten, in 2030 einen relativ hohen Wert für γ zu erlernen. Um auch in diesem Fall P* überhaupt noch einhalten zu können, müsste wegen des Budgeteffekts bereits heute ein Übermaß an Emissionsreduktion geleistet werden (vgl. Schmidt et al. 2011), darin Weitzmans Ergebnis für die Kosten-Nutzen-Analyse gleichend (dieser „Quasi-Weitzman-Effekt“ der Kosten-Effektivitäts-Tradition ist bis heute von den Verfechtern von Temperaturzielen nahezu nicht zur Kenntnis genommen worden). Es kann darüber hinaus noch nicht einmal ausgeschlossen werden, einen derart hohen Wert für γ zu lernen, dass das P*-Ziel auf Grund bereits erfolgter Emissionen nicht mehr einzuhalten ist. Insofern ist CCP als dysfunktional unter antizipiertem Lernen zu bezeichnen, es verletzt sogar das Meta-Kriterium 6.

Ein Hauptproblem scheint darin zu liegen, dass ein starres (T*, P*)-Ziel mit einer nicht benennbaren Obergrenze zu γ nicht vereinbar ist, wenn sich die Unsicherheit zu γ verringern könnte. Dieses sind Schwierigkeiten, die in einer Kosten-Nutzen-Analyse qua Konstruktion nicht auftreten können, weil letztere nicht über Ziele verfügt. Auch kann gezeigt werden, dass der erwartete Nutzen von antizipiertem Lernen nie negativ werden kann (siehe etwa Gollier 2001). Daher stellen Schmidt et al. (2011) die Frage, ob sich ein Entscheidungskalkül definieren ließe, das die Vorteile beider Entscheidungsschulen (Kosten-Nutzen vs. Kosten-Effektivität) erntet.←43 | 44→

4 Das Hybridmodell „Kosten-Risiko-Analyse“ (KRA)

Schmidt et al. (2011) schlagen vor, das Konstrukt eines probabilistischen Klimaziels beizubehalten, jedoch eine weitere Aufweichung in der Interpretation des 2°C-Ziels vorzunehmen: Das Ziel darf überschossen werden, jedoch wird die Überschießungswahrscheinlichkeit in Kombination mit dem Grade des Übertritts eingepreist (siehe Gleichung 1):

image

Gleichung (1)

Hierbei indizieren t die Zeit und s die möglichen Zustände, die γ annehmen kann. ps bezeichnet die Wahrscheinlichkeit eines Zustands für γ, U die konsumgetriebene Nutzenfunktion, R das noch zu spezifizierende „Risiko“, das durch die Überschreitung der Maximaltemperatur empfunden wird, und exp(-δt) die bei intertemporaler Optimierung übliche Diskontierung. U repräsentiert den rein ökonomischen erfassten Anteil, in dem sich auch die Kosten der Transformation des Energiesystems spiegeln. R stellt das „empfundene Risiko“ der Überschreitung der 2°C-Obergrenze dar.

Formal handelt es sich bei (1) um ein Kosten-Nutzen-Funktional. Daher können die bei CCP für antizipiertes Lernen gefundenen konzeptionellen Schwierigkeiten nicht auftreten.

Wurde nun „durch die Hintertür“ wieder eine Schadensfunktion (in Gestalt von R) eingeführt, die lediglich anders bezeichnet wird? Dieses ist nicht der Fall. R bezeichnet eine Zahlungsbereitschaft, eine Temperaturüberschreitung zu vermeiden. Der tatsächlich eintretende Schaden braucht hierfür nicht gewusst zu werden. Wüsste man ihn, würde man eine Standard-Kosten-Nutzen-Analyse ausführen. Im Prinzip könnten nun R und sein Verrechnungsparameter β durch Interviews mit Entscheidern bestimmt werden. In Neubersch et al. (2014) haben wir jedoch der Community eine Interpretation der COP-2010-Formulierung des 2°C-Ziels (wiederum eines probabilistischen Zieles) in Gestalt einer Kosten-Risiko-Analyse (KRA) vorgeschlagen. Nach unserem Eindruck hat in den Klimaverhandlungen die Vorstellung, über γ dazuzulernen, kaum eine Rolle gespielt. Es war lediglich von „likely compliance“ mit dem 2°C-Ziel die Rede. Im „calibrated language“-Verständnis des IPCC (Mastrandrea et al. 2010) entspricht dies einem P* von 66 %. Neubersch et al. (2014) kalibrierten nun den Verrechnungsparameter β derart, dass im Grenzfall ohne Lernen mit 66 % Wahrscheinlichkeit dem 2°C-Ziel entsprochen wurde. Alle übrigen Variablen wurden dann aus dem so←44 | 45→ kalibrierten Modell diagnostiziert, insbesondere die Investitionsströme in die konkurrierenden Energietechnologien.

Wir betonen, dass dieses Entscheidungskalkül qua Konstruktion sämtlichen eingangs geforderten Qualitätskriterien genügt!

Doch mit welcher Funktion R wurde gearbeitet? Um auch hierfür einen stilisierten Vorschlag zu unterbreiten, wurde das Axiom der „Nicht-Opferung eines holozännahen Klimazustands“ (Neubersch et al. 2014) proklamiert. Es wurde gefordert, dass bei imaginiertem perfekten Lernen keinesfalls der Fall eintreten dürfe, wenn sich (etwa wegen zu großen γ’s) das 2°C-Ziel nicht mehr einhalten ließe, dann auf einen Standard-Emissionspfad ohne Klimapolitik einzuschwenken, „weil ja ohnehin alles egal ist“. Wir behaupten, dass dieses Axiom in der Tat die Werteordnung der Proponenten des 2°C-Ziels wiedergibt. Entscheidend ist hierbei, dass, wie vorne ausgeführt, dieses Ziel keinen scharfen Übergang zum „Weltuntergang“ kennzeichnet, sondern eine (akademisch informierte) politisch gesetzte Orientierungsmarke. Neubersch et al. (2014) zeigen dann, dass die Funktion R(T) konvex und daher jenseits des Ziels mindestens linear ansteigen muss, um dem Axiom zu genügen. Eine lineare Risikofunktion stellt daher die konservativstmögliche Darstellung (aus Sicht einer an Emissionen gewöhnten Gesellschaft, d. h. im Mittel ihr Minimum) einer Zahlungsbereitschaft dar.

Mit dieser Funktion wurde in den wenigen bisher existierenden Anwendungen dieses neuen Entscheidungs-Kalküls gearbeitet. Die entsprechenden numerischen Ergebnisse seien hier kurz zusammengestellt:

Die Investitionspfade aus KRA und CCP unterscheiden sich nicht signifikant für die kommenden Jahrzehnte, auch dann nicht, wenn antizipiertes Lernen hinzugenommen wird (vgl. Neubersch et al. 2014). Der „Quasi-Weitzman-Effekt“ von CCP ist entschärft. Dieses ist eine sehr gute Nachricht für all diejenigen, die zu den 1000 Szenarien des letzten IPCC-Berichts beigetragen haben. Vermutlich wird man zeigen können, dass auch bei der Verwendung komplexerer Modelle (wie dies in Neubersch et al. 2014 in Gestalt des MIND-Modells der Fall war) KRA und Kosten-Effektivitäts-Analyse sehr ähnliche Ergebnisse liefern. Insofern lassen sich die im letzten IPCC-Bericht präsentierten Rechnungen als Grenzfälle ohne Lernen interpretieren. Die zugehörigen Vermeidungskosten können als Obergrenzen der Kosten mit Lernen interpretiert werden, weil der erwartete Nutzen von Lernen in KRA qua Konstruktion nie negativ sein kann.

Durch KRA ist es erstmalig möglich, den Erwartungsnutzen von klimawissenschaftlicher Information (hier stilisiert im Lernen zu γ vereinigt) konzeptionell sinnvoll zu formulieren. Es zeigt sich, dass sich durch heutiges perfektes←45 | 46→ Lernen2 ein Wohlfahrtsgewinn ergeben würde, der im zeitlichen Mittel bis zu 0,7 % Konsumgewinn entspräche. Zudem könnte im Mittel bis zu einem Drittel an Vermeidungskosten eingespart werden. Dieses bedeutet global hunderte von Milliarden Euro pro Jahr, falls man eine 2°C-Politik unterstützt. Es darf bezweifelt werden, dass der Forschung zur Reduktion von Klimaantwort-Unsicherheit derzeit Mittel in diesem Umfang zufließen.

Die weichere Form des 2°C-Ziels in Gestalt der KRA erlaubt es, das Wertesystem, das hinter dem Ziel steht, in eine Zukunft zu extrapolieren, in der das Ziel vielleicht nicht mehr exakt einzuhalten sein wird, etwa durch eine weiterhin dem Ziel inadäquate Vermeidungspolitik. Roth et al. (2015) bestimmten die Vermeidungskosten unter verzögerter Klimapolitik. Sie sinken mit dem Grad der Verzögerung unter KRA, während sie unter einer Kosten-Effektivitäts-Analyse ansteigen (vgl. Luderer et al. 2013).

5 Zusammenfassung und Ausblick

Die Klimaökonomik muss mit Unsicherheiten sehr verschiedener Qualität umgehen. Hierbei verstehen wir, dem IPCC folgend, „Unsicherheit“ als die Gesamtheit des in einem spezifischen Kontext fehlenden Wissens, inklusive eines solchen, das sich durch Wahrscheinlichkeitsmaße ausdrücken lässt. Während die Unsicherheit der Klimaantwort auf Treibhausgasemissionen als gut formal handhabbar gilt, ist im Fall von Klimawandelfolgen noch nicht einmal klar, ob wir derzeit den relevanten Zustandsraum hinreichend erfassen, d. h., ob wir bereits alle wichtigen Größen kennen und ins Kalkül einbeziehen. In den vergangenen zwei Jahrzehnten haben sich unterschiedliche entscheidungstheoretische Ansätze dazu herausgebildet, welche klimapolitischen Handlungen in dieser Situation zu empfehlen seien. Die Kosten-Nutzen-Analyse und die Kosten-Effektivitäts-Analyse stellen hierbei die am häufigsten verwendeten Entscheidungskalküle dar. Dabei entspricht die Kosten-Nutzen-Analyse dem „klassischen“ Vorgehen der Umweltökonomik und sie kann auf die breiteste axiomatische Basis verweisen. Klimaziele sind darin Ergebnisse einer Abwägung aller zur Verfügung stehenden ökonomischen Informationen. Unsicherheiten werden stringent probabilistisch modelliert. Es hat sich gezeigt, dass das Ausmaß optimaler heutiger Vermeidungsanstrengungen so stark von schwer bestimmbaren Eingangsgrößen abhängt, dass nahezu das gesamte Spektrum möglicher Empfehlungen durch dieses Instrument in der Literatur gerechtfertigt wurde. Während der Schwerpunkt der Empfehlungen jenseits von←46 | 47→ 3°C Erwärmung zu finden war, eröffnete eine konsequentere Buchhaltung der Unsicherheit zur Klimasensitivität einen Pfad, sogar stärkere Vermeidungspolitiken als diejenige eines 2°C-Ziels zu rechtfertigen. Nach unserem Eindruck benötigt dieses formal fundierteste Entscheidungsinstrument im Lichte eines kombinierten Effekts aus Unsicherheit von Klimasensitivität und Klimawandelfolgen noch einen deutlich längeren Vorlauf an Grundlagenforschung, bevor mit seiner Hilfe robuste Politikempfehlungen abgeleitet werden können.

Hingegen benötigt die Kosten-Effektivitäts-Analyse ein Klimaziel – wie etwa das 2°C-Ziel – bereits auf der Eingabeseite des Kalküls. Es legt einen akademisch informierten, doch auch stark auf die Intuition zurückgreifenden Schnitt durch das System im Sinne dessen, was angesichts von „großer“ Klimawandelunsicherheit noch handhabbar bzw. möglicherweise nicht mehr handhabbar sei – sowohl akademisch als auch gesellschaftlich-praktisch. Dieses Ziel ersetzt dann eine explizit darzustellende Klimawandel-Folgen-Kostenfunktion der Kosten-Nutzen-Analyse. Die akademische Analyse kann sich dann auf diejenigen Teile des Systems beschränken, zu denen sie valide Aussagen zu treffen vermag: zum Zusammenhang von Treibhausgas-Emission und globaler Mitteltemperatur sowie zu den Kosten von Vermeidungspolitik. Auch diese Aussagen sind mit Unsicherheiten behaftet, die in derselben Größenordnung liegen wie die projizierten Effekte selbst; diese Unsicherheiten stellen daher „Effekte erster Ordnung“ dar. Doch hier ist das Systemverständnis ausreichend entwickelt, um Unsicherheiten zu formalisieren und ins Entscheidungskalkül der Kosten-Effektivitäts-Analyse oder in dessen Nachfolge-Kalküle einzubeziehen.

Für diese Einbeziehung musste die Kosten-Effektivitäts-Analyse in einem Doppelschritt verallgemeinert werden: Zum einen war dem Umstand Rechnung zu tragen, dass bislang für die Klimasensitivität keine Obergrenze angegeben werden kann. Daher muss das 2°C-Ziel als ein probabilistisches Ziel interpretiert werden („mit 66 % Wahrscheinlichkeit einzuhalten“). Jedoch läuft man bei der Vorstellung, eines Tages könnten sich derart hohe Sensitivitäts-Werte konsolidieren, dass dann diese Grenze nicht mehr einzuhalten wäre, in Selbstwidersprüche. Es wäre rational, sich bereits heute darauf vorzubereiten. Dann muss jedoch darüber verhandelt werden, wie eine Überschreitung der 2°C-Grenze zu bewerten ist.

Nachdem nun beide erwähnten klimaökonomischen Schulen angesichts von Unsicherheit gravierende praktische bzw. konzeptionelle Schwierigkeiten aufweisen, wenn es darum geht, der heutigen Gesellschaft Empfehlungen zu liefern, haben wir aus beiden Ansätzen einen Hybrid konstruiert und diesen Kosten-Risiko-Analyse (KRA) genannt. Die Figur des Temperaturziels wird beibehalten,←47 | 48→ eine Überschreitung wird jedoch verrechenbar gemacht. Der neue Verrechnungsparameter wird am 2°C-Ziel der COP 2010 geeicht. Alle anderen Systemgrößen lassen sich dann daraus ableiten, wie etwa die Investitionen in den Energiesektor, der Nutzen klimawissenschaftlicher Information oder das Verhalten bei verzögerter Klimapolitik.

Es zeigt sich, dass wesentliche Empfehlungen traditioneller Kosten-Effektivitäts-Analysen, wie sie etwa im letzten IPCC-Bericht kompiliert wurden, durch KRA reproduziert wurden. Dieses bedeutet, dass es möglich ist, bisherigen Kosten-Effektivitäts-Analysen eine neue Interpretation zuzuweisen, so dass deren Ergebnisse gegen „Lernen über Klimasensitivitäts-Unsicherheit“ „robustifiziert“ werden. Unterschiede treten hingegen auf, wenn Klimapolitik verzögert umgesetzt wird. Dann würde eine Kosten-Risiko-Analyse in ihrer konservativsten Ausprägung (mit linearer Risikofunktion) weniger Vermeidung empfehlen als eine Kosten-Effektivitäts-Analyse. Künftige Arbeiten haben auch zu zeigen, ob es Alternativen gibt, einen Hybrid aus Kosten-Nutzen- und Kosten-Effektivitäts-Analyse zu bilden, oder ob die Kosten-Risiko-Analyse „alternativlos“ ist. Letztere Frage mag sich Vertretern starker Nachhaltigkeit stellen, die eine Verrechnung von Kosten und Risiken grundsätzlich ablehnen.

Diese Diskussion hat unmittelbare Konsequenzen für eine Beurteilung darüber, ob die Climate Engineering-Option „direkte Beeinflussung des Strahlungshaushalts“ im Verbund mit Vermeidungsoptionen eingesetzt werden sollte, denn die Nebenwirkungen dieser Option fällt in dieselbe Unsicherheits-Klasse wie die Folgen des Klimawandels selbst. Die Konsequenzen eines entsprechenden Konzept-Transfers werden derzeit von uns erforscht.

Entscheidung unter Unsicherheit am Klimaproblem stellt eine jahrzehntelang unterschätzte Herausforderung an die ökonomische Grundlagenforschung im Verbund mit den betroffenen klimawissenschaftlichen Bereichen dar – mit potentiell gravierenden gesellschaftspolitischen Konsequenzen. Sie bietet nicht nur die Chance auf faszinierende Forschungsagenden, sondern regt uns ebenfalls an, neu über die Arbeitsteilung von Akademia und Gesellschaft nachzudenken.

Danksagung

Ich danke Christian Dieckhoff für zahlreiche, sehr hilfreiche Hinweise in Bezug auf eine Vorversion dieses Textes.←48 | 49→

Literatur

Blau, Roger A. (1974): Stochastic Programming and Decision Analysis: an Apparent Dilemma. In: Management Science 21.3, 271–276.

Bürgenmeier, Beat/Baranzini, Andrea/Ferrier, Catherine/Germound-Duret, Céline/Ingold, Karin/Perret, Sylvain/Rafaj, Peter/Kypreos, Socrates/Wokaun, Alexander (2006): Economics of climate policy and collective decision making. In: Climatic Change 79, 143–162.

Charnes, Abraham/Cooper, William W. (1959): Chance constrained programming. In: Management Science 6, 73–79.

Edenhofer, Ottmar/Bauer, Nico/Kriegler, Elmar (2005): The impact of technological change on climate protection and welfare — insights from the model MIND. In: Ecological Economics 54, 277–292.

Gollier, Christian (2001): The economics of risk and time. Cambridge (Mass.)/London.

Hediger, Werner (1999): Reconciling “Weak” and “Strong” Sustainability. In: International Journal of Social Economics 26, 1120–1143.

Held, Hermann/Kriegler, Elmar/Lessmann, Kai/Edenhofer, Ottmar (2009): Efficient Climate Policies under Technology and Climate Uncertainty. In: Energy Economics 31, 50–61.

Horowitz, John/Lange, Andreas (2014): Cost-Benefit Analysis under Uncertainty – A Note on Weitzman’s Dismal Theorem. In: Energy Economics 42, 201–203.

IPCC (2013): Summary for Policymakers. In: Stocker, Thomas F./Qin, Dahe/Plattner, Gian-Kaspe/Tignor, Melinda M. B./Allen, Simon K./Boschung, Judith/Nauels, Alexander/Xia, Yu/Bex, Vincent Pauline M. (Hrsg.): Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge/New York.

IPCC (2014): Summary for Policymakers. In: Edenhofer, Ottmar/Pichs-Madruga, Ramón/Sokona, Youba/Minx, Jan C./Farahani, Ellie/Kadner, Susanne/Seyboth, Kristin/Adler, Anna/Baum, Ina/Brunner, Steffen/Eickemeier, Patrick/Kriemann, Benjamin/Savolainen, Jussi/Schlömer, Steffen/von Stechow, Christoph/Zwickel, Timm (Hrsg.): Climate Change 2014: Mitigation of Climate Change. Contribution of Working Group III to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge/New York.

Kleinen, Thomas Christopher (2005): Stochastic Information in the Assessment of Climate Change. Diss. Universität Potsdam.

Klocke, Daniel (2011): Assessing the Uncertainty in Climate Sensitivity. In: Reports on Earth System Science 95.←49 | 50→

Knight, Frank H. (1921): Uncertainty and Profit. Boston.

Kolstad, Charles/Urama, Kevin/Broome, John/Bruvoll, Annegrete/Olvera, Micheline C./Fullerton, Don/Gollier, Christian/Hanemann, William Michael/Hassan, Rashid/Jotzo, Frank/Khan, Mizan R./Meyer, Lukas/Mundaca, Luis (2014): Social Economic and Ethical Concepts and Methods. In: Edenhofer, Ottmar/Pichs-Madruga, Ramón/Sokona, Youba/Minx, Jan C./Farahani, Ellie/Kadner, Susanne/Seyboth, Kristin/Adler, Anna/Baum, Ina/Brunner, Steffen/Eickemeier, Patrick/Kriemann, Benjamin/Savolainen, Jussi/Schlömer, Steffen/von Stechow, Christoph/Zwickel, Timm (Hrsg.): Climate Change 2014: Mitigation of Climate Change. Contribution of Working Group III to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge/New York.

Kriegler, Elmar/Bruckner, Thomas (2004): Sensitivity Analysis of Emission Corridors for the 21st Century. In: Climatic Change 66, 345–387.

Kunreuther, Howard/Gupta, Shreekant/Bosetti, Valentina/Cooke, Roger/Dutt, Varun/Ha-Duong, Minh/Held, Hermann/Llanes-Regueiro, Juan/Patt, Anthony/Shittu, Ekundayo/Weber, Elke (2014): Integrated Risk and Uncertainty Assessment of Climate Change Response Policies. In: Edenhofer, Ottmar/Pichs-Madruga, Ramón/Sokona, Youba/Minx, Jan C./Farahani, Ellie/Kadner, Susanne/Seyboth, Kristin/Adler, Anna/Baum, Ina/Brunner, Steffen/Eickemeier, Patrick/Kriemann, Benjamin/Savolainen, Jussi/Schlömer, Steffen/von Stechow, Christoph/Zwickel, Timm (Hrsg.): Climate Change 2014: Mitigation of Climate Change. Contribution of Working Group III to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge/New York, 151–206.

Luderer, Gunnar/Pietzcker, Robert C./Bertram, Christoph/Kriegler, Elmar/Meinshausen, Malte/Edenhofer, Ottmar (2013): Economic Mitigation Challenges: How Further Delay Closes the Door for Achieving Climate Targets. In: Environmental Research Letters 8.3, 034033.

Mastrandrea, Michael D./Field, Christopher B./Stocker, Thomas F./Edenhofer, Ottmar/Ebi, Kristie L./Frame, David J./Held, Hermann/Kriegler, Elmar/Mach, Katherine J./Matschoss, Patrick R./Plattner, Gian Kasper/Yohe, Gary W./Zwiers, Francis W. (2010): Guidance Note for Lead Authors of the IPCC Fifth Assessment Report on Consistent Treatment of Uncertainties, Intergovernmental Panel on Climate Change IPCC.

Meinshausen, Malte/Meinshausen, Nicolai/Hare, William/Raper, Sarah C. B./Frieler, Katja/Knutti, Reto/Frame, David J./Allen, Myles R. (2009): Greenhouse-Gas Emission Targets for Limiting Global Warming to 2°C. In: Nature 458, 1158–1163.

Nelson, Julie A. (2013): Ethics and the Economist: What Climate Change Demands of Us. In: Ecological Economics 85, 145–154.←50 | 51→

Neubersch, Delf/Held, Hermann/Otto, Alexander (2014): Operationalizing Climate Targets under Learning: An Application of Cost-Risk Analysis. In: Climatic Change 126, 305–318.

Nordhaus, William D. (2008): A Question of Balance: Weighing the Options on Global Warming Policies. New Haven/London.

Petschel-Held, Gerhard/Schellnhuber, Hans-Joachim/Bruckner, Thomas/Tóth, Ferenc L./Hasselmann, Klaus (1999): The Tolerable Windows Approach: Theoretical and Methodological Foundations. In: Climatic Change 41, 303–331.

Roth, Robert/Neubersch, Delf/Held, Hermann (2015): Evaluating Delayed Climate Policy by Cost-Risk Analysis, begutachteter EAERE2015-Artikel, Programmankündigung: http://www.eaere2015.org/programme.html, conference booklet S. 59 (aufgerufen 8.4.2018).

Savage, Leonard J. (1954): The Foundations of Statistics. New York.

Schellnhuber, Hans-Joachim (2010): Tragic Triumph. In: Climatic Change 100, 229–238.

Schmidt, Matthias G. W./Lorenz, Alexander/Held, Hermann/Kriegler, Elmar (2011): Climate Targets under Uncertainty: Challenges and Remedies. In: Climatic Change 104, 783–791.

Schneider von Deimling, Thomas/Ganopolski, Andrey/Held, Hermann/Rahmstorf, Stefan (2006a): How Cold was the Last Glacial Maximum? In: Geophysical Research Letters 33, L14709, DOI: 10.1029/2006GL026484.

Schneider von Deimling, Thomas/Held, Hermann/Ganopolski, Andrey/Rahmstorf, Stefan (2006b): Climate Sensitivity Estimated from Ensemble Simulations of Glacial Climates. In: Climate Dynamics 27, 463–483.

Stern, Nicholas (2007): The Economics of Climate Change – The Stern Review. Cambridge.

Stern, Nicholas (2013): The Structure of Economic Modelling of the Potential Impacts of Climate Change: Grafting Gross Underestimation of Risk onto already Narrow Science Models. In: Journal of Economic Literature 51, 838–859.

von Neumann, John/Morgenstern, Oskar (1944): Theory of Games and Economic Behavior. Princeton.

Weitzman, Martin L. (2009): Additive Damages, Fat-Tailed Climate Dynamics, and Uncertain Discounting. In: SSRN Electronic Journal 3, 1–24, http://www.economics-ejournal.org/economics/journalarticles/2009-39 (aufgerufen 8.4. 2018).

Zachos, James/Pagani, Mark/Sloan, Lisa/Thomas, Ellen/Billups, Katharina (2001): Trends, Rhythms, and Aberrations in Global Climate 65 Ma to Present. In: Science 292, 686–693.←51 | 52→ ←52 | 53→


1 Copenhagen Diagnosis, http://www.copenhagendiagnosis.org, Fig. 22, Abrufdatum: 08.01.2018.

2 D. h. der Fiktion, heute „über Nacht“ perfektes Wissen über die Temperaturentwicklung in Reaktion auf unser Emissionsverhalten zu erlangen.