Behandlung von Unsicherheit im IPCC-Prozess

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Intergovernmental Panel on Climate Change (IPCC, Zwischenstaatlicher Ausschuss für Klimaänderungen) verwendet in seinen „Sachstandsberichten“ nach dem Erscheinen des Dritten Sachstandsberichtes (TAR) im Jahr 2001 eine normierte und formalisierte Klassifikation der statistischen Unsicherheit der vorgestellten zusammengefassten Forschungsergebnisse. Diese Einschätzung der Unsicherheit der Ergebnisse soll eine allgemeingültige Bewertung von Ergebnissen ermöglichen und damit die Vergleichbarkeit von aktuellen und zukünftigen Forschungsresultaten, aber auch die Vergleichbarkeit zwischen verschiedenen wissenschaftlichen Studien sicherstellen.

Der Unsicherheitsfaktor in den Naturwissenschaften[Bearbeiten | Quelltext bearbeiten]

Jede naturwissenschaftliche Forschung ist mit mehr oder minder großen Unsicherheiten behaftet. Dies gilt auch für die interdisziplinäre Forschung bezüglich des Erdsystems. Jeder Schritt zum Erkenntnisgewinn führt zu neuen Unsicherheiten, die beschrieben und nach Möglichkeit quantifiziert werden müssen. So besteht zum Beispiel bei der Entwicklung einer wissenschaftlichen Hypothese Unsicherheit über die Mechanismen. In der Erhebung von Daten besteht Unsicherheit assoziiert mit Messungenauigkeit oder systematischen Messfehlern, und in der Auswertung von Daten besteht Unsicherheit in den Analysemethoden und damit in den Ergebnissen. Das Erdsystem ist in seiner Komplexität am oberen Ende des Spektrums hinsichtlich Nichtlinearität und Freiheitsgraden angesiedelt.[1] Da diese Komplexität bedeutet, dass Erkenntnisse über die im Erdsystem herrschenden Prozesse bisher nicht mit absoluter Sicherheit beschrieben und erklärt werden können, ist es notwendig, diese Unsicherheit zu quantifizieren.

In Abhängigkeit von den Zeit- und Raumskalen verschiedener Prozesse können Unsicherheiten schneller oder langsamer eliminiert werden. So kann die Unsicherheit über hochfrequente Variabilität durch Messungen über kurze Zeiträume rasch beseitigt werden. Jedoch kann Unsicherheit über Variabilität auf Zeitskalen von mehreren Tausend Jahren deutlich länger bestehen bleiben.

Beschreibung von Unsicherheiten im nicht-wissenschaftlichen Kontext[Bearbeiten | Quelltext bearbeiten]

Die Quantifizierung von Unsicherheiten ist speziell im Kontext der anhaltenden politischen Debatte zum Klimawandel und der oft vordergründig inszenierten Kontroverse um die globale Erwärmung äußerst relevant, da sie das Vertrauen in wissenschaftliche Erkenntnisse in belastbaren und vergleichbaren Begriffen formuliert. Häufig wird in der politischen Diskussion eine subjektive Beschreibung von Unsicherheiten gewählt. Das bedeutet, dass in Aussagen die Klassifizierungen „sehr wahrscheinlich“, „wahrscheinlich“ oder „unwahrscheinlich“ verwendet werden, die sich jedoch in ihrer Bedeutung von Person zu Person und von Interpretation zu Interpretation unterscheiden. Damit wird Außenstehenden ein unklares Bild der Faktenlage und der objektiven Ergebnisse vermittelt. Dies kann das Ziel der Verwendung sein (wie bei der Kontroverse um die globale Erwärmung) und sollte daher vermieden bzw. unterbunden werden.

Einer der ersten, der sich mit der Kommunikation der statistischen Unsicherheit und der öffentlichen Wahrnehmung des Themenkomplexes der globalen Erwärmung intensiv befasste, war der Physiker und Klimawissenschaftler Stephen Schneider. Als langjähriger IPCC-Mitarbeiter und Leitautor (Arbeitsgruppe I von 1994 bis 1996, ab 1997 koordinierender Leitautor der Arbeitsgruppe II) widmete er sich ausführlich den Unsicherheiten bei der Modellierung der Wechselwirkungen von menschlichen und natürlichen Systemen und veröffentlichte darüber eine Vielzahl von Stellungnahmen und wissenschaftlichen Abhandlungen.[2]

Formalisierung durch den IPCC[Bearbeiten | Quelltext bearbeiten]

Im Rahmen der Erstellung des Vierten Sachstandsberichts (AR4) wurde durch den IPCC eine normierte und formalisierte Klassifikation von Unsicherheit eingeführt.[3] Diese Klassifikation wurde für den Fünften Sachstandsberichts (AR5) aktualisiert.[4] Der IPCC verdeutlicht in der Einleitung (siehe https://ipcc.ch/report/ar5/wg1/) des Fünften Sachstandsbericht, dass die aktuelle Behandlung von Unsicherheiten nicht als finale, sondern als sich kontinuierlich verändernde Herangehensweise betrachtet werden soll. Der aktuelle Stand gliedert sich in zwei Aspekte, die individuell bewertet werden. Es wird die Aussagekraft eines Ergebnisses (Validity of finding) und die Wahrscheinlichkeit eines Ergebnisses (Measure of certainty of finding) beschrieben. Nur durch die Kombination dieser Aspekte lässt sich begründet eine Aussage über zukünftige Entwicklungen (Vorhersagen und Projektion) treffen und bewerten.

Matrix zur Bestimmung der Aussagekraft (confidence) eines Ergebnisses; Güte des Ergebnisses (Spalten) und Übereinstimmung (Zeilen) bestimmen die Aussagekraft; je dunkler/blauer desto höher die Aussagekraft.

Die Aussagekraft eines Ergebnisses wird aktuell (März 2017) über die Art (type), Qualität (quality), Menge (amount), Beständigkeit (consistency) und Übereinstimmung (degree of agreement) der gefundenen wissenschaftlichen Beweise bestimmt. Es wird hier unterschieden zwischen der Güte der Ergebnisse (Art, Qualität, Menge und Beständigkeit) und der studienübergreifenden Aussagekraft (Übereinstimmung). Die Güte wird auf einer qualitativen Skala mit limitiert (limited), mittel (middle) oder robust (robust) bewertet. Hohe Güte wird bspw. durch Kombination von in-situ Messungen, Satellitenmessungen, Simulationsergebnissen und theoretischen Modellen erreicht. Die Übereinstimmung wird ebenfalls qualitativ auf einer Skala mit niedrig (low), mittel (middle) oder hoch (high) beschrieben. Unter Betrachtung dieser Informationen wird die Aussagekraft eines Ergebnisses in einer zweidimensionalen Matrix ausgedrückt. Entlang der Zeilen der Matrix wird eine zunehmende Aussagekraft durch Art, Qualität, Menge und Beständigkeit der Ergebnisse aufgezeigt. Entlang der Spalten wird eine steigende Aussagekraft durch die Übereinstimmung von mehreren Ergebnissen aufgezeigt. Die Aussagekraft steigt damit diagonal durch die Matrix an und hat ihren höchsten (niedrigsten) Wert bei robusten (limitierten) Beweisen und hoher (niedriger) Übereinstimmung. Es ist wichtig zu erwähnen, dass in diesem Zusammenhang von Aussagekraft/Konfidenz im semantischen Sinne gesprochen wird und nicht von statistischer Konfidenz. Daher könnte für eine bestimmte Güte und Übereinstimmung von Beweisen eine variable Aussagekraft angegeben werden. Jedoch korrelieren höhere Güte und höhere Übereinstimmung mit höherer Aussagekraft.[5]

Die Wahrscheinlichkeit eines Ergebnisses bewertet, wie wahrscheinlich es ist, dass dieses Ergebnis eintritt. Sie wird in einer sprachlich kalibrierten Skala angegeben, welche auf quantifizierten Wahrscheinlichkeiten beruht. Diese Skala besteht aus sieben möglichen Bewertungsniveaus (qualifiers):

Bewertungsniveaus der Wahrscheinlichkeit eines Ergebnisses
Bewertungsniveau Wahrscheinlichkeit
nahezu sicher (virtually certain) 99 – 100 %
sehr wahrscheinlich (very likely) 90 – 100 %
wahrscheinlich (likely) 66 – 100 %
ungefähr so wahrscheinlich wie nicht (about as likely as not) 66 – 033 %
unwahrscheinlich (unlikely) 00 – 033 %
sehr unwahrscheinlich (very unlikely) 00 – 010 %
außergewöhnlich unwahrscheinlich (exceptionally unlikely) 00 – 001 %

Grundlage dieser Quantifizierung können Berechnungen auf Grundlage von in-situ-Daten, Satellitendaten oder Simulationen oder Auswertung von Experteninterviews sein. Bei ausreichend großer Datengrundlage ist es jedoch vorzuziehen, die gesamte Wahrscheinlichkeitsdichtefunktion (PDF, probabilit density function) zu zeigen.[5]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. siehe Abb. 1.3.1 in: Steven H. Strogatz: Nonlinear Dynamics and Chaos. Hrsg.: Perseus Books. Perseus Books, Reading, Massachusetts 1994, ISBN 978-0-7382-0453-6, S. 10.
  2. R. H. Moore, S. H. Schneider: Recommendations to lead authors for more consistent assessment and reporting. (PDF) In: Guidance Papers on the Cross Cutting Issues of the Third Assessment Report of the IPCC (Ed. R. Pachauri, T. Taniguchi, K. Tanaka). 2000, S. 33–51.
  3. Intergovernmental Panel on Climate Chage: Guidance Notes for Lead Authors of the IPCC Fourth Assessment Report on Addressing Uncertainties. Hrsg.: Intergovernmental Panel on Climate Change. 2005.
  4. Michael D. Mastrandre, Christopher B. Field, Thomas F. Stocker, Ottmar Edenhofer, Kristie L. Ebi, David J. Frame, Hermann Held, Elmar Kriegler, Katharine J. Mach, Patrick R. Matschoss, Gian-Kasper Plattner, Gary W. Yohe, Francis W. Zwiers: Guidance Note for Lead Authors of the IPCC Fifth Assessment Report on Consistent Treatment of Uncertainties. (PDF) In: IPCC Cross-Working Group Meeting on Consistent Treatment of Uncertainties. Juli 2010.
  5. a b Cubasch, U., D. Wuebbles, D. Chen, M.C. Facchini, D. Frame, N. Mahowald, and J.-G. Winther, 2013: Introduction. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.