Während wir alle noch auf das perfekte Modell warten, bleibt die Frage, was wir bis dahin machen? Man kann natürlich mit der grossen Variabilität der Modelle leben und einfach mit den Achseln zucken. Aber vielleicht gibt es ja einen systematischen Weg, um herauszufinden, welches Modell besser ist und welchem man also mehr vertrauen kann? Die Idee besteht schlicht darin, ein objektives Ranking zu erstellen in der Annahme, dass wer gestern viele Fehler gemacht hat, es wahrscheinlich morgen auch machen wird. In diesem Sinne hätte man eben aus den Fehlern von gestern gelernt und würde sich eben auf die “besseren” Modelle stützen.

Leider steht dieser natürlichen Herangehensweise zwei Hindernisse im Wege. Erstens, ein politisches Hinderniss. Schliesslich haben sich alle ganz doll angestrengt die Deadlines des IPCC zu verfolgen und es war ein wichtiges Ziel eben auch ein russisches oder chinesisches Modell im IPCC Prozess dabei zu haben. Zweitens, ein wissenschaftliches. Was sich nämlich so natürlich anhört (Ranking der Modelle) ist nämlich gar nicht so einfach. Was soll ein Modell eigentlich wofür können? Muss es, um den Einfluss des Klimas im Jahre 2050 auf die Krötenwanderungen in der Lüneburger Heide , wirklich die globale Temperatur gut berechnen können? Und wenn denn die globale Temperatur jetzt mal das Target sein soll, sind eigentlich die “guten” Modelle wirklich sinnvoll zu definieren? Reto Knutti überschrieb einen sehr schönen Artikel zu dieser Problematik passend mit der Überschrift: “The end of model democracy?”.

i-07554d3e9ca4885715970ffe0437ea2f-RankingAGCM.jpg

Bild 1: Abschneiden der verschiedenen Modelle über 20 Jahresabschnitte. Links wurden die interdekadischen (20 Jahre) globalen Anomalien und rechts die Absoluttemperaturen zur Beurteilung herangezogen.


Klimamodelle werden getunt, d.h. eine Reihe von Parametern, deren Wert nicht durch direkte Beobachtungen weiter eingeschränkt werden kann, werden mit viel Erfahrung und Spucke auf einen Wert festgelegt, der eine möglichst “gute” Übereinstimmung mit typischerweise der beobachteten Klimatologie von 1961-1990 hat. “Gute” steht in Anführungszeichen, weil jede Modellierergruppe einen Mix recht unterschiedliche Ziele anstrebt (tropische Temperaturen, Nord-Süd Temperaturgradient, Monsunniederschlag, etc. etc.) und jede etwas anderes unter “Gut” versteht. Die Modellen werden hingegen nicht auf die Klimaentwicklung der letzten 1000 Jahre oder gar längerer Zeiträume optimiert, wie man das manchmal lesen kann. Das ist zuerst mal gar nicht möglich und dann auch nicht wünschenswert (schliesslich will man die Modelle ja möglichst unabhängig gegen möglichst verschiedene Klima-Situationen testen).

Bei den letzten 100 Jahren ist die Situation etwas komplizierter. Während ich nachwievor der Meinung bin, dass niemand die Modelle auf die Klimaentwicklung zwischen 1900 und heute bewusst getunt hat (Liege ich falsch? Und wenn ja, woher weiss man das?), so hat Jeffrey Kiehl doch herausgefunden, dass es einen Zusammenhang zwischen Klimasensitivität der im IPCC verwandten Modelle und angenommenen Aerosol-Forcing gibt. Mit einfachen Worten: je geringer die Klimasensitivität umso grösser negativer das Aerosolforcing Je kleiner/groesser die Klimasensitivitaet umso groesser/kleiner das Gesamtforcing und umso kleiner/groesser der negative Beitrag des Aerosolforcings (welches insbesondere in der ersten Hälfte des 20ten Jhd eben sehr grosse Unsicherheiten hat). Kommen wir aber zurück zum Problem des Modell-Rankings. Kann man überhaupt so etwas sinnvoll aufstellen?

i-2d0e6c53dec6643c11dee22bf3393edf-EnsembleGCMs.jpg

Bild 2: Resultat des Ensembles der IPCC Modelle, unten fuer die globalen T-Anomalien, oben für die Absoluttemperaturen.

Ian Macadam und Ko-autoren versuchten es. Sie formulierten folgendes Kriterium: Der Bewertungszeitraum liegt zwischen 1900 und 2000 und das “Target” ist die globale oder regionale (EU oder USA) Temperatur. WENN ein Modell über einen Zeitabschnitt von 20 Jahren gut abschneidet und WENN dieses Abschneiden etwas über die Qualität des Modells aussagt, DANN sollte dieses Modell auch in den darauffolgenden 20 Jahren gut abschneiden. Wenn hingegen aus dem “guten” Abschneiden in vorherigen Dekaden nichts für die folgenden folgt, dann kann man so eben kein sinnvoolles Ranking erstellen.
Das Ergebnis ist relativ frustrierend. Als erstes schauten sich die Autoren die Qualität der simulierten Temperatur-Anomalien an. Fünf Abschnitte von je 20 Jahren wurden bewertet. Wie Bild 1 gut erkennen lässt, streut die Qualität der einzelnen Modelle von 20 Jahresabschnit zu 20 Jahresabschnitt enorm. Die meisten der Modelle sind mal unter den ersten 3 und mal unter den letzten drei. Keine Chance daraus ein sytematisches Ranking zu erstellen.

Die Geschichte ändert sich allerdings, wenn man die Absolut-Temperaturen und nicht die interdekadischen Anomalien wie oben betrachtet. Die Modelle sind deutlich geordnet und die ersten vier Modelle (GISS, Hadley Center und zwei Modelle des MPI Hamburg) schlagen etwa alle anderen bei weitem und über jeden der 5 Zwanzigjahres-Abschnitte. Warum ist das so? Die Antwort ist eigentlich recht trivial und zeigt Bild 2. Die Modelle sind in ihren Bemühungen durch Tuning sich den beobachteten Absoluttemperaturen zu nähern unterschiedlich weit gekommen und diese vier beispielsweise schlagen alle anderen praktisch immer. Hingegen ist das Verhältnis von Signal zu Rauschen bei den 20-jährigen Anomalien sehr schlecht. Die jedem Modell eigene Klimavariabilität ist deutlich grösser als das durch den Mix aus Vulkanausbrüchen, Treibhausgasen und vielleicht Sonnenaktivität vorgegeben Forcing.

Letztlich stellt dieses nicht wirklich überraschende Ergebniss das, was wir über dekadische Variabilität wissen, nur noch einmal auf andere Art dar. Aus einem Ensemble von Modellen ein irgendwie gewichtetes “besseres” Ensemble zu machen bleibt schwierig und man sollte vermeintlich “schlechte” Modelle nicht voreilig ausschliessen. Auch ein “schlechtes” Modell kann die Statistik des Ensembles verbessern, wenn die “guten” Modelle falscherweise zu sehr übereinstimmen.

Ferner kommt es darauf an, für welche Projektion man eigentlich ein Modell benötigt: Globale Temperatur, El Niño, Niederschlag im Sahel? Jedesmal muss aufs Neue eine Metrik entwickelt werden, die einen sinnvollen Zusammenhang zwischen dem Beobachtungszeitraum, der zur Erstellung einer Modellgewichtung dient, und den Projektionen herstellt. “Sinnvoll” heisst eben, dass das jeweilige Rankingkriterium auch wirklich etwas über die Qualität der Projektion aussagen muss (das ist z.B. oben bei der interdekadischen Variabilität der globalen Temperatur nicht der Fall).

Und schliesslich noch ein letzter Gedanke. Bei jedem neuen IPCC Bericht treten die Modellgruppen aus aller Welt immer mit ihren “neuesten” Modellen an. Das hat seine Logik hauptsächlich in all der Arbeit, die in die Beschreibung von “neuen” Prozessen (wie eine Kopplung des Klimas mit dem Kohlenstoffkreislauf, das neueste “Must have” der Modelliererszene) hineingesteckt wurde. Es hat aber keine Rechtfertigung in einer objektiven Beurteilung der alten im Vergleich zu den neuen Modellen. Laufend wird also ein Ranking aufgestellt, einzig auf der Basis des Alters eines Modells. Kein besonders objektives Kriterium.

Kommentare (53)

  1. #1 Gunnar Innerhofer
    September 4, 2010

    Georg,
    interessanter Beitrag, aber bitte lesen sie selbst nochmals Korrektur, da sind doch einige Tipfehler drin und beachten sie insbesondere die Erlärungen zu Bild 1 und 2, bie 2 gehört zu mindest “oben” und “unten” vertauscht.
    Habe ich korrigiert. Danke.

  2. #2 antiangst
    September 4, 2010

    Wie gut würde denn wohl ein einfaches Modell abschneiden, dass einen 20- Jahreszeitraum nimmt, dort die Extreme glättet und dann die Haupttrends einfach extrapoliert und nochmal 0,1K für den CO2 Anstieg drauf schlägt?

  3. #3 Georg Hoffmann
    September 4, 2010

    @antiangst
    Verstehe die Frage nicht. Die Extreme glaettet wovon? Die Stagnation in den 50er waere natuerlich ohnehin nicht mit einem linearen Trend zu beschreiben.

  4. #4 Webbaer
    September 4, 2010

    Aber vielleicht gibt es ja einen systematischen Weg, um herauszufinden, welches Modell besser ist und welchem man also mehr vertrauen kann?

    Dafür gibts “Darwin”, tausende Modelle konkurrieren, manche finden eine höhere Akzeptanz. [1] Aber…

    “Darwin” greift hier wegen der Schwierigkeit der Aufgabe bzw. der Komplexität der Datenlage nur sehr sehr langsam, bspw. 100k Jahre scheinen von der Datenprobe her für den Anfang OK zu sein, 150 Jahre sind dagegen etwas dünn für die kleinen Zirkulationsmodelle. (Aus Sicht des Stochastikers [2] ist das alles [3] nur ein schöner Versuch, der viele in Brot bringt, da ansonsten vielleicht…, aber OK, lassen wir das vielleicht an dieser Stelle.)

    MFG
    Wb

    [1] im Sinne des Konstruktiven Empirismus
    [2] des “Ratekünstlers”
    [3] die Klimaprognostik

  5. #5 Gunnar Innerhofer
    September 4, 2010

    Ein selten guter Beitrag, mein voller ernst.

    Nun denn, Klimamodellierung war nie mein Fach und es wird wahrscheinlich gar nicht so einfach sein, in dieser Teildisziplin der Klimaforschung einen guten Überblick und ausreichendes Verständnis zu gewinnen.
    Was man oben sieht und liest ist sehr interessant, vor allem in Bezug auf die doch erheblichen Unterschiede in den Läufen der einzelnen Modelle.
    Zusätzlich sehen wir hier “nur” die letzten 100a, welche aber zu mindest von der Genauigkeit der gemessenen Parameter wie Temperatur und Niederschlag etc. her, einen zuverlässigen Referenzzeitraum bilden.

    “Past Ranges Future Changes”
    Geht man auf der NHK 1000a zurück und will diese mit den Klimamodellen nachbilden, besteht ohne Zweifel das Problem, dass es große Unterschiede in der Rekonstruktion dieser Paläo- Temperatur Reihen gibt. Ich erinnere nochmals an die “Spaghettis” bzw. den Hockeystick und auch die neueren Rekonstruktionen von zB. Böhm et al.
    Zwischen LIA und MWP liegen mal um 0,5°C bzw. 1,5°C und auch die Variationen über mehrere Dekaden bewegen sich mal um 0,3°C od. ca. 0,8°C.
    Diese Umstände machen die ganze Angelegenheit sicher nicht einfacher, bieten allerdings, je nach Geschmack sage ich mal, einen großzügigen Spielraum.

  6. #6 Webbaer
    September 4, 2010

    @GH

    …auf der Basis des Alters eines Modells. Kein besonders objektives Kriterium.

    Ein wenig irr fürwahr, aber sicherlich ein objektives und gut messbares Kriterium.
    Vielleicht werden Sie in vielleicht 30 Jahren im Alter noch eine andere Sicht Entwickeln können auf diesen Unfug; Ihr Artikel zeugt von einem grundsätzlich noch möglichen klaren Blick auf diese Sache.

    MFG
    Wb

  7. #7 Tomtom
    September 4, 2010

    @GH:
    Klar gibt es bessere und schlechtere Modelle – aber kommen sie denn zu grundsätzlich unterschiedlichen Ergebnissen?

    So, wie ich das sehe, geht bei allen der Trend nach oben, oder irre ich mich?

    Mehr noch. Jedes Modell kann unterschiedlich parametriert werden. Dennoch zeigen auch unterschiedlich parametrierte Modelle weitgehend nach “oben”
    https://www.geos.ed.ac.uk/ccs/Technical/ClimateChange.html

    Bei allen Differenzen zwischen den Arbeitsgruppen und Modellierern ist der Trend soweit ich weiss doch gleich.

    Tomtom

  8. #8 Webbaer
    September 4, 2010

    Es kann keine besseren und schlechteren Modelle geben zurzeit, wg. Datenlage bzw. Größe der Datenprobe. Was Herrn Hoffmann nachvollziehbarerweise nicht zu schmecken scheint, ist dass es naturgemäß in die “B-Note” gehen muss; also Aktualität, eventuell auch Marketingwerte bewertend.

    BTW: Herr Hoffmann würde vom Webbaeren eine B-Note im mittleren Bereich erhalten, ganz unten wäre das Potsdam-Institut anzusiedeln, sehr weit oben v.Storch und sein Team – auf den deutschsprachigen Klimamarkt bezogen.

    MFG
    Wb

  9. #9 Jörg
    September 4, 2010

    Hmm das ist interessant, Ensemblevorhersagen sind ja in der Wettervorhersage Standard und verbreiten sich auch in der Hydrologie immer mehr – wobei man in der Hydrologie durch konzeptionelle Modelle viel schneller ist. Daher interessiert mich ehrlich, wie weit solche Dinge in der Klimamodellierung verbreitet sind:

    a) Wie werden Ensembles erstellt? Sind das jetzt alles einzelne physikalische Modelle die Punktvorhersagen machen oder Varianten einzelner Modelle? Wie sehr setzt man auf Wahrscheinlichkeitsverteilungen statt Punktvorhersagen (z.B. durch MCMC-Methoden oder z.B. Kalman-Filter)

    b) Bestimmt hat auch jemand schon Mittelungsverfahren für Modell-Ensembles getestet (z.B. Bayesian Model Averaging). Funktioniert das?

    c) Wie verbreitet sind konzeptionelle Modelle? (Also nicht-physikalische Modelle mit Zuständen und parametrisierten Zustandsgleichungen)

    Sorry für die vielen Fragen, aber das interessiert mich wirklich weil es genau mein Arbeitsbereich ist.

  10. #10 Webbaer
    September 4, 2010

    @Jörg
    Es gibt in der Klimatologie keine Ensembles, weil das Klimasystem zu komplex ist.
    Beachten Sie vielleicht auch den Knutti-Text bzw. dessen Einführung.

    MFG
    Wb

  11. #11 Karl Mistelberger
    September 4, 2010

    Klimamodelle werden getunt, d.h. eine Reihe von Parametern, deren Wert nicht durch direkte Beobachtungen weiter eingeschränkt werden kann, werden mit viel Erfahrung und Spucke auf einen Wert festgelegt, der eine möglichst “gute” Übereinstimmung mit typischerweise der beobachteten Klimatologie von 1961-1990 hat. “Gute” steht in Anführungszeichen, weil jede Modellierergruppe einen Mix recht unterschiedliche Ziele anstrebt (tropische Temperaturen, Nord-Süd Temperaturgradient, Monsunniederschlag, etc. etc.) und jede etwas anderes unter “Gut” versteht.

    Sie formulierten folgendes Kriterium: Der Bewertungszeitraum liegt zwischen 1900 und 2000 und das “Target” ist die globale oder regionale (EU oder USA) Temperatur.

    @Georg: Wie sieht denn die Statistik aus, wenn man nur ungetunte Modelle miteinbezieht, bzw. nur jene Modelle betrachtet, die bezüglich des “Targets” getunt sind?

  12. #12 Jörg
    September 4, 2010

    Es gibt keine ungetunten Modelle. Das wäre ja grotesker Blödsinn – das würde bedeuten dass man die Modelle nicht an realen Daten misst.

  13. #13 Jörg
    September 4, 2010

    Na sowas, die Hälfte meiner Fragen hat Stefan Rahmstorf grade zufällig in der Klimalounge beantwortet – nicht dass ich erwartet habe dass diese Dinge NICHT gemacht würden.

    https://www.wissenslogs.de/wblogs/blog/klimalounge/debatte/2010-09-04/energiegutachten-ohne-unsicherheit

  14. #14 Gunnar Innerhofer
    September 4, 2010

    @ Jörg

    die Ensembles der Atmosphären Gleichung (Wettervorhersage), sind ein guter Umweg, die nicht lösbare Zustandsgleichung zu beschreiben. Ich denke, sie wissen wie das in etwa läuft, was ein Hauptlauf darstellt, ein Kontrollauf und die ca. 20 weiteren Rechenläufe, mit jeweils leicht unterschiedlichen Anfangszuständen bzw. etwas verspäteten Zuständen, als Kontrolle der ersten Rechenprozedere usw.

    Ein Klimamodell muss die Dynamik ebenfalls umgehen und zwar viel gröber, als dies die Wettermodelle beschreiben. Das ist das Problem 1. Ordnung, aber wahrscheinlich vernachlässigbar.
    Ich weiß auch nicht, wie Klimamodelle genau aufgebaut sind, aber ein Monte Carlo Verfahren über die Wahrscheinlichkeiten zu drücken, erscheint mir nicht plausibel, weil man ja nur die zu erwartende Verteilung damit einzuschätzen hofft.
    Ich denke, die größte Unsicherheit beim Programmieren der Modelle sind immer noch die zum Teil ziemlich unbaknnten Forcings bzw. Feedbacks, welche die bodennahe Temperatur betreffen.

    Aber Georg wird uns sicher etwas aufklären und wenn es genau ihr Arbeitsbereich ist, ja dann sollten sie uns doch erhellen können.

  15. #15 energietechniker
    September 5, 2010

    @Jörg
    “Na sowas, die Hälfte meiner Fragen hat Stefan Rahmstorf grade zufällig in der Klimalounge beantwortet – nicht dass ich erwartet habe dass diese Dinge NICHT gemacht würden.”

    naja. Rahmstorf zeigt eigentlich nur dass er von fehlerrechnung, volkswirtschaft und energieversorgung keine ahnung hat. von systematischen fehlern hat er anscheinend noch nie was gehört.

    und atomkraft ist für ihn natürlich böse, war ja irgendwie klar…

  16. #16 Webbaer
    September 5, 2010

    Noch mal zu den Ensembles:
    Diese werden in sehr komplexen Systemen eigentlich nur genutzt, um das jeweilige Modell zu schützen, also nicht bereits bei leicht veränderter Parametrisierung “abgeigen” bzw. völlig unplausible Ergebnisse generieren zu lassen.

    In der Meterologie natürlich höchst sinnvoll, auch um wahrscheinliche Ergebnisse antizipieren zu können bzw. deren Wahrscheinlichkeit, aber in komplexen Systemen geht da eigentlich nüscht die eigentliche Prognose betreffend, sondern eben nur wie oben angeführt dem Abgeigen vorzubeugen.

    Insofern idT eine passende Fragestellung. Darum auch der Hinweis auf den Knutti-Text.
    Wenn Wetter und Klima nun also doch in derselben Liga spielen, irgendwie, dann wird der eine oder andere eben hellhörig.

    GH, bitte mal erläutern.

    MFG
    Wb

  17. #17 Jörg
    September 5, 2010

    Gunnar, Webtroll, energietechniker: Wenn ich mal komplett ahnungsloses Dummgeschwätz völlig selbstüberschätzter unfähiger Flachpfeifen brauche komme ich gerne auf euch zurück. Bis dahin warte ich aber gerne auf Georg.

  18. #18 Webbaer
    September 5, 2010

    @Jörg
    Führen Sie gerne zur Sache aus, Webbaer lauscht, beachten Sie vllt aber, dass die Interdisziplinarität der Klimatologie eher den Wirtschaftswissenschaften nahekommt als der Physik.
    Und ganz ohne Sie adjektivieren zu wollen: Gerade unterstützende Sichten sollten nicht so ohne weiteres weggezornt (Stichworte: Anger Management und Webkompetenz) werden.

    Schönes Rest-WE noch,
    MFG,
    Wb

    PS: Georg nagts hier auch ein wenig, gell?

  19. #19 JV
    September 5, 2010

    Was ist denn so Ihre “unterstützende Kompetenz”?
    Da fällt mir ein: Wollten Sie nicht, nachdem man Ihnen Daten zur Verfügung stellte, eigene Berechnungen präsentieren?

  20. #20 Webbaer
    September 5, 2010

    @JV
    Von “unterstützender Kompetenz” stand da nichts, die “Ranking-Frage” stellt sich dagegen schon, wie kann ein leistungsfähiges Zirkulationsmodell eigentlich von einem anderen unterschieden werden, war ein Grund.

    Wb hat hier idT -wie auch bei den auf anderem Niveau konkurrierenden Wirtschaftwissenschaften- den Eindruck, dass es an der Maßstäblichkeit fehlt oder mangelt und dass dbzgl. sinnvoll beigetragen werden muss.

    Bspw. “Wutwissenschaftler”, man kann den einen oder anderen Klimatologen (Rahmstorf gehört wohl dazu) hier sicherlich einrechnen, wären womöglich in der Lage falsche Ergebnisse zu generieren, unbewusst oder wie auch immer.

    Klima ist ja immerauch ein soziodynamischer Prozess. 🙂

    Gespannt sein weiterhin,
    MFG
    Wb

  21. #21 Georg Hoffmann
    September 5, 2010

    So, Wochenende ist zu Ende. Jetzt wird wieder geschafft und geantwortet: So gut es geht, halt.

    @Gunnar

    Zusätzlich sehen wir hier “nur” die letzten 100a, welche aber zu mindest von der Genauigkeit der gemessenen Parameter wie Temperatur und Niederschlag etc. her, einen zuverlässigen Referenzzeitraum bilden.

    Eine ganze Reihe der Modelle haben “nur” diese 100 Jahre und natuerlich die Scenarien (A2,A1B, etc etc) gerechnet. Aber viele haben natuerlich viel mehr gemacht, also insbesondere die letzten 1000 Jahre und unzaehlige andere Paleoscenarien.
    https://pmip2.lsce.ipsl.fr/
    Ueber die 100 Jahre sind sicher viele Forcingterme sehr gut oder gut bekannt. Die Effekte des Aerosols sind aber unsicher (Effekte auf Wolkenbildung).

  22. #22 Georg Hoffmann
    September 5, 2010

    @Tomtom

    Klar gibt es bessere und schlechtere Modelle – aber kommen sie denn zu grundsätzlich unterschiedlichen Ergebnissen?
    So, wie ich das sehe, geht bei allen der Trend nach oben, oder irre ich mich?

    Nein, natuerlich haben Sie da recht. Es gibt kein auf Physik basierendes Modell (egal welcher Komplexitaet) welches keine Erwaermung bei Erhoehung der Treibhausgaskonzentrationen berechnet.
    Die Variabilitaet der Trends is aber beachtlich und wird ja letztlich durch die Klimasensitivitaet der verschiedenen Modelle bestimmt. Die meisten Modelle liegen zwischen 0.1-0.3°C/Dekade Trend.

    Diese Studien (Modellranking) werden nicht (oder zumindest nicht in erster Linie) gemacht, um die Frage der Klimasensitivitaet zu klaeren. Es werden haeufig Subsysteme
    betrachtet (arktisches Meereis) bei denen wirklich nicht klar ist, welches Modell mehr taugt al die anderen.

  23. #23 Karl Mistelberger
    September 6, 2010

    Es gibt keine ungetunten Modelle. Das wäre ja grotesker Blödsinn – das würde bedeuten dass man die Modelle nicht an realen Daten misst.

    Leute, die Ahnung von der Sache haben machen hilfreichere Kommentare: https://www.realclimate.org/index.php/archives/2008/11/faq-on-climate-models/

    The end of model democracy?

    Wer für diesen Kommetar keine 34€ ausgeben möchte, kann ihn hier gratis lesen: https://www.iac.ethz.ch/people/knuttir/papers/knutti10cc.pdf

  24. #24 Georg Hoffmann
    September 6, 2010

    @Karl Mistelberger

    Wie sieht denn die Statistik aus, wenn man nur ungetunte Modelle miteinbezieht, bzw. nur jene Modelle betrachtet, die bezüglich des “Targets” getunt sind?

    Solange Prozesse in den Modellen beschrieben werden, die man noch nicht auf first principles aufbauend beschreiben kann, solange werden in den Modellgleichungen Parameter auftauchen. Die Parameter haben bestenfalls einen vernuenftig abschaetzbaren Wertebereich. Egal welcher Wert man nun nimmt, irgendeine Entscheidung wird immer gefällt. Sobald man auch nur einmal auf die Ergebnisse linst und sich danach fuer einen bestimmten Wert entscheidet, hat man getunt.

    In vielen Studien wurde dann versucht herauszufinden, was denn der EInfluss der Parameterunsicherheiten ist. Und das sieht zB so aus:

    https://ww.lse.ac.uk/collections/cats/papersPDFs/66_EvaluatingUncertainty_Nature_2005.pdf
    Stainforth hatte unter anderem einen Parametersatz gefunden, der eine Klimasensitivitaet im zweistelligen Bereich zeigte (ungluecklicherweise tauchte diese Zahl sogar im Abstrakt auf). Die ueblichen Verdaechtigen haben sich dann natuerlich auf das Paper gestuerzt um zu “zeigen”; wie laecherlich doch diese Modelle sind, da sie alles und nicht produzieren könnten.
    Eine sehr einfache Analyse zB auf den Jahresgang zeigte dann, dass die (zufällig) gewählte Parameterkombination fuer die 11K einen ziemlich unrealistischen Jahresgang ergab und die Chance auf solche eine Klimasensitivitaet bei 1:20 liegt.

    https://www.cgd.ucar.edu/ccr/knutti/papers/knutti06jc.pdf

  25. #25 Martin Vermeer
    September 6, 2010

    > Je geringer die Klimasensitivität umso grösser das Aerosolforcing

    Sollte das nicht umgekehrt sein? Kiehl:

    > the total forcing is inversely correlated to climate sensitivity

    …und das Aerosolforcing ist wohl ein negativer Beitrag?

  26. #26 Georg Hoffmann
    September 6, 2010

    @Joerg
    Bin etwas langsam. Sorry.

    a) Wie werden Ensembles erstellt? Sind das jetzt alles einzelne physikalische Modelle die Punktvorhersagen machen oder Varianten einzelner Modelle? Wie sehr setzt man auf Wahrscheinlichkeitsverteilungen statt Punktvorhersagen (z.B. durch MCMC-Methoden oder z.B. Kalman-Filter)

    Man nimmt ein und dasselbe Modell und aendert nur ein bit irgendeines Parameters (8chte Nachkommastelle). Forcing und alles andere bleibt gleich. Bei gekoppelten Modellen nimmt man auch gerne ein paar Jahre auseinanderliegende Startpunkte aus dem Controllauf. So startet man auf jedesmal unterschiedlichen Ozeanzustaenden.
    Nochmals: die Modelle sind exakt gleich. Daher auch der Artikel Knuttis. Jeder Lauf geht mit einer “Stimme” in die IPCC Statistik rein. Wer nur zwei Laeufe fertigbekam hatte nur zwei Stimmen. Wer reich ist und mehrere Modellversionen durchrechnen konnte geht mit 6 (Das MPI Hamburg war mit zwei Modellen vertreten) Stimmen in die Abstimmung.
    Das ist natuerlich nicht befriedigend. Kalmanfilter etc werden durchaus benutzt.

    Bestimmt hat auch jemand schon Mittelungsverfahren für Modell-Ensembles getestet (z.B. Bayesian Model Averaging). Funktioniert das?

    Ist mir unbekannt (und hab jetzt auch nicht nachgeschaut). Die IPCC Statistiken mit den PDF etc ist glaube ich alles klassische Gaussche Statistik.

    Wie verbreitet sind konzeptionelle Modelle? (Also nicht-physikalische Modelle mit Zuständen und parametrisierten Zustandsgleichungen)

    Hmm, meinst du sowas?
    https://journals.ametsoc.org/doi/abs/10.1175/JAS3967.1

    Bis jetzt nicht besonders benutzt. Ist aber im Kommen.

    Frag bitte nach, wenn die Antworten nicht wirklich treffen.
    Georg

  27. #27 Georg Hoffmann
    September 6, 2010

    @Martin Vermeer

    Stimmt. Der Betrag groesser, aber eben negativ. Ich korrigiere das mal (Grummel, grummel)

  28. #28 JV
    September 6, 2010

    @ Webbär
    “Von “unterstützender Kompetenz” stand da nichts, die “Ranking-Frage” stellt sich dagegen schon, wie kann ein leistungsfähiges Zirkulationsmodell eigentlich von einem anderen unterschieden werden, war ein Grund.”

    Gesschenkt. Dann eben “unterstützende Sichtweise”. Damit kamen Sie ja an, nachdem Ihnen Jörg die Meinung geigte.
    Was ist denn so Ihre Kompetenz, dass sie Jörg eine “unterstützende Sichtweise” liefern können? Ich z.B. könnte das nicht. Mein Fachgebiet hat mit seinem nichts zu tun. Deswegen würde ich mich auch niemals so weit aufschwingen. Sie schwafeln ziemlich viel, aber wirklich konkret werden Sie nie. Erzählen Sie doch mal.

    PS: Was ist denn nun mit den Daten? Schon “vergessen”?

  29. #29 Loki45
    September 6, 2010

    Ich habe da ein ketzerische Frage: Hält sich denn das Wetterverhalten auch an Ihre Daten und Modellberechnungen, Herr Hoffmann oder machen die atlantischen Tiefs und die Azorenhochs, was sie für richtig halten?

  30. #30 Georg Hoffmann
    September 6, 2010

    @loki45
    Was ist denn an der Frage “kätzerisch”?
    Doch die Hochs- und Tiefs machen schon ziemlich genau, was die Modelle so rechnen.

    Hier ein optisch schoenes Beispiel (wohlgemerkt es handelt sich um Modellergebnisse)
    https://www.jamstec.go.jp/esc/gallery/index.en.html

    Einfach die verschiedenen Simulationen anklicken.

  31. #31 axel
    September 6, 2010

    @ georg
    Guter Artikel!

    @ Karl Mistelberger
    Danke für den Link zum “kostenlosen Knutti”!

  32. #32 Rudi
    September 6, 2010

    Um es kurz zu machen
    Mehr als sehr, sehr sehr^xx aufwändige Zufallszahlengeneratoren kann ich in diesen Modellen (GCM) nicht erkennen.
    Ich lass mich gerne bekehren, wenn mir gezeigt wird dass
    a) die wesentlichen Wäremtransporte (Globales Förderband, Humboldt-, Golfstrom etc. ) korrekt in den Modellen abgebildet werden
    b) die Temperaturprofile in 3D einschließlich der Schichtung in den Ozeanen der Realität entsprechen
    c) die Änderumg des 3D-Temperaturprofils infolge der CO2-Zunahme mit den Messdaten gut korreliert ist
    d) die typischen Muster sich in den Simulationen wiederfinden

    Nun komm mir keiner und sage es ist ein stochastischer Prozess der sich eigentlich gar nicht berechnen lässt.

  33. #33 Martin Vermeer
    September 7, 2010

    Aber Georg, die “Korrektur” macht es schlimmer!

  34. #34 Georg Hoffmann
    September 7, 2010

    @Martin
    Ich habe ja schon eine links/rechts Schwaeche beim Autofahren. Jetzt auch noch groesser/kleiner?

    In Kiehls Figure 1 ist der Zusammenhang zwischen Klimasensitivitaet und Gesamtforcing zu sehen. Je groesser/kleiner die Klimasensitivitaet umso kleiner/groesser das Gesamtorcing.
    Das Aerosolforcing ist negativ und Kiehls Figure 2 zeigt, je kleiner das Gesamtforcing umso negativer das Aerosolforcing.

    Nochmal

    “Je kleiner/groesser die Klimasensitivitaet umso groesser/kleiner das Gesamtforcing und umso kleiner/groesser der negative Beitrag des Aerosolforcings”

    Sorry.

  35. #35 Georg Hoffmann
    September 7, 2010

    @Rudi
    Immer eine Frage ob das Glas halb voll oder halb leer ist.
    a/b schon recht JA
    c zumindest nicht inkonsistent
    d Was fuer Muster?

  36. #36 Martin Vermeer
    September 7, 2010

    Georg, OK. Bin selbst linkshändig 🙁

  37. #37 SingSing
    September 7, 2010

    Off topic:
    Nach neuesten Erkenntnissen schmilzt das Eis in Grönland und in der West-Antarktis nur halb so schnell wie bisher gedacht, auch der Anstieg der Meeresspiegel ist niedriger anzusetzen.

  38. #38 Rudi
    September 7, 2010

    G.Hoffman
    d Was fuer Muster?

    solche, die sich wieder erkennen lassen

    Mustererkennung ist die Fähigkeit, in einer Menge von Daten Regelmäßigkeiten, Wiederholungen, Ähnlichkeiten oder Gesetzmäßigkeiten zu erkennen.
    siehe [Mustererkennung wiki]

    Ich denke dabei an temporäre Ereignisse, zB. el Nino , la Nina, PDO und wie die alle heißen.
    Zumindest bei Vorgabe eines Anfangzustandes sollten die GCM den weiteren Verlauf berechnen können

  39. #39 Georg Hoffmann
    September 8, 2010

    @Rudi
    Wir nennen das eigentlich in dem Zusammenhang nicht Muster, was ein eher spezifischer Ausdruck fuer das Resultat statistischer Analysen ist. Eher vielleicht typische Klimavariabilitaeten oder so.
    ENSO haben die meisten Modelle, alle haben Probleme (die aber mit dem blossen Auge fuer den Laien erstmal nicht zu sehen sind). Definitiv haben alle, die ich kenne eine ENSO Oszillation. PDO habe ich hier geschrieben. Es ist weder ganz klar was das ist, ob es eine wirklich robuste EIgenschaft des gekoppelten Ozean-Atmosphaeren System ist, welches meinethalben auch im Mittelalter existierte und wie wichtig diese Oszillation nun ist. Hier habe ich mehr dazu geschrieben. Es gibt Modelle die sowas aehnliches machen:
    https://www.scienceblogs.de/primaklima/2008/06/pdo-zum-ersten.php
    https://www.scienceblogs.de/primaklima/2008/06/pdo-zum-zweiten.php

    Man kann den Anfangszustand momentan (noch?) nicht gut genug beschreiben um die Modelle in eine perfekte ENSO Vorhersage laufen zu lassen. Ich glaube auch nicht, dass das noetig ist um die Klimasensitivitaet oder das Klima 2050 einigermaszen zu beschreiben. Noch gibt es wissenschaftliche Arbeiten, die das zeigen wuerden.

  40. #40 Dr.Webbaer
    September 8, 2010

    @Georg Hoffmann
    Ist die Aussage richtig, dass Ensembles in der Klimatologie im Gegensatz bspw. zur Meteorologie mit Schwerpunkt Wettervorhersage nur dem Zweck dienen Plausibilität sicherzustellen und nicht dem Zweck der Prognostik?

    MFG
    Wb

  41. #41 Georg Hoffmann
    September 8, 2010

    @Webbaer
    Nein, sie dienen genau demselben Zweck wie in der Wettervorhersage.
    Sie erlauben Statistik zu betreiben und die Abhaengigkeit von kleinen Unterschieden in den Rand und Startbedingungen abzuschaetzen.

  42. #42 Dr.Webbaer
    September 8, 2010

    @Georg Hoffmann
    In der Wettervorhersage dienen Ensembles u.a. auch direkt der Ermittlung der Wahrscheinlichkeiten, Werte, die auch Sie abends im Radio oder Fernsehen hören oder sehen.
    Hier besteht dann vermutlich doch ein Unterschied zur klimatologischen Prognostik?

    Insofern ist der Knutti-Text auf den ersten Blick irritierend, Wb nur das Intro zur Kenntnis genommen haben, aber direkte Vergleiche von Klima und Wetter verbieten oder verboten sich bisher.
    Danke auch an Jörg für den Hinweis.

    MFG
    Wb

  43. #43 Georg Hoffmann
    September 8, 2010

    @Webbaer
    “Hier besteht dann vermutlich doch ein Unterschied zur klimatologischen Prognostik?”
    Wieso?
    Siehe etwa Bild 6 der Zusammenfassung des AR4 mit den relativen Wahrscheinlichkeiten fuer Temperaturaenderungen bis 2040-2050 etc.

  44. #44 Dr.Webbaer
    September 8, 2010

    @Georg Hoffmann
    Es ist Ihnen doch sicherlich klar, dass eine Wettervorhersage letztlich einer Umformung der aktuell messbaren Entitäten und deren Eigenschaften ist, die Klimaprognose dagegen das “große Ganze” verrührt und -ähnlich wie in den Wirtschaftswissenschaften- Langzeitprognosen trifft, die rein modellhaft [1] sind.

    Hoffentlich ist Ihnen dieser prinzipielle Unterschied klar, bei Ersterem arbeitet man dann auch mit streuungsberücksichtigenden Ensembles, bei letzterem jedenfalls mit einer anderen Art der Ensemblierung der zu einem bestimmten Zeitpunkt festgestellten Datenlage.

    Das sind jetzt wirklich keine Details.
    Also, lassen Sie es ruhig heraus, wenn Sie so zu sagen knuttimässig keine Unterschiede feststellen wollen!

    MFG
    Wb

    [1] “rein modellhaft” soll nicht herabsetzen

  45. #45 Georg Hoffmann
    September 8, 2010

    @Webbaer
    Ich vermute ja seit langem, dass Sie Chinese sind und ein Babblefish diese Saetze draus macht.
    Letzter Versuch (dann lass ichs bleiben): was ist fuer Sie der Unterschied zwischen Ensemble-Rechnungen zur Wettervorhersage und denen der Klimarechnungen?

    Das Einzige was mir einfaellt ist, dass die Klimarechnungen Scenarien rechnen. Aber das tun die Wettermodelle im Grund auch. Sie nehmen an, dass ab dem Punkt; wo der Forcast loslegt, nur Meteorologie passiert und nichts anderes. Das “Scenario” lautet also zB dass es in den naechsten 10 Tagen keinen groszen Vulkanausbruch gibt, der die Prognose hinfaellig macht. Aber mal davon abgesehen, was ist also der Unterschied?

  46. #46 Dr.Webbaer
    September 8, 2010

    @Georg Hoffmann

    was ist fuer Sie der Unterschied zwischen Ensemble-Rechnungen zur Wettervorhersage und denen der Klimarechnungen?

    Was für Sie der Unterschied [1] ist, war die Frage. Was der Unterschied ist, ist allgemein klar.

    MFG
    Wb

    [1] Zaunpfahl: die Ensembles mit ihrer “Monte Carlo”-Analysierbarkeit

  47. #47 Gunnar Innerhofer
    September 8, 2010

    zu den Wetterensembles:

    wer damit eine mittel od. langfrist Prognose wagt und sich nach dem Mittel der Läufe orientiert, der liegt mit hoher Wahrscheinlichkeit falsch, wahrscheinlich sogar sehr falsch. Es ist in der Wettervorhersage absolut unüblich, sich am Mittel zu orientieren, ok, einige machen das, die sind wohl noch zu selten auf die Schnauze gefallen, bzw. werden deren Berichte von keiner Sau verifiziert und selbst machen sie das wohl auch nicht. Es gibt eine Ausnahme und zwar, wenn fast alle der meinetwegen 20 Läufe inkl Hauptlauf und Kontrollauf den gleichen Trend zur gleichen Zeit anzeigen und nahe zusammen liegen und das vielleicht noch bei GFS und ECWMF Modell ident.
    Oder anders ausgedrückt, es hat wenig Sinn für den 5ten Tag einen Tageshöchstwert von 10 bis 20°C vorauszusagen, nur weil man damit gut die Ensembles deckt.

    Außerdem sollten die runs dazwischen nicht gegenläufig sein, also “zufällig” am Tag X wieder zusammenfallen, aber genau das sieht man eigentlich bei den Klimamodellen und dass sie sich im Trend immer wieder irgendwo treffen, kann wohl nur daran liegen, dass dem CO2 inkl. Feedbacks ein sehr hohes Forcing mit auf den Weg gegeben wird.

    Georg:
    mal ne Frage:
    gibt es Modelle, welche so was wie ein Maunder Minimum innerhalb der nächsten Dekaden “annehmen” bzw. würde sich ein über Dekaden anhaltendes Min. der solaren Aktivität überhaupt in den Läufen sichtbar machen?
    Lt. Rahmstorf sind die solaren Forcings, also die Diff. zwischen viel und wenig Aktivität von der Größenordnung 1:10 zum athropogenen-. So gesehen, wäre es ja fast völlig wurscht, was die Sonne die nächsten Jahrhunderte treibt und das glaube ich dann doch wieder nicht.

  48. #48 Georg Hoffmann
    September 8, 2010

    @Webbaer
    Nochmal die gleiche Antwort: Ich sehe keinen grundsätzlichen Unterschied.
    Da waren wir glaube ich schon mal.
    Aber war nett mal mit Ihnen drueber gesprochen zu haben. Haben Sie keine Lust Kommentare oder Fragen in Englisch zu formulieren? Dann wird’s vielleicht verstaendlich. Zumindest fuer mich. Falls sonst hier irgendjemand Webbaer-Deutsch spricht, nehme ich gerne Hilfe an.

  49. #49 Dr.Webbaer
    September 8, 2010

    @Georg Hoffmann

    Nochmal die gleiche Antwort: Ich sehe keinen grundsätzlichen Unterschied.

    Das hält der Webbaer sehr gerne fest: Sie sehen keinen grundsätzlichen Unterschied zwischen den Modellen der Wettervorhersage und denen der Klimaprognostik, jedenfalls nicht i.p. Ensembles und “Monte Carlo-Analysierbarkeit”.

    MFG
    Wb

  50. #50 Evil Dude
    September 8, 2010

    Falls sonst hier irgendjemand Webbaer-Deutsch spricht, nehme ich gerne Hilfe an.

    Einen, der in einem Kommentarbereich dauernd von sich in der 3. Person spricht, muss man nicht so ganz ernst nehmen.

  51. #51 Karl Mistelberger
    September 10, 2010

    gibt es Modelle, welche so was wie ein Maunder Minimum innerhalb der nächsten Dekaden “annehmen” bzw. würde sich ein über Dekaden anhaltendes Min. der solaren Aktivität überhaupt in den Läufen sichtbar machen? Lt. Rahmstorf sind die solaren Forcings, also die Diff. zwischen viel und wenig Aktivität von der Größenordnung 1:10 zum athropogenen-. So gesehen, wäre es ja fast völlig wurscht, was die Sonne die nächsten Jahrhunderte treibt und das glaube ich dann doch wieder nicht.

    Innerhofer glaubt gerne oder auch nicht gerne. “Lt. Rahmstorf” ist eine Suggestivformulierung, denn die wesentlichen Details zur Frage gibt es hier: https://www.skepticalscience.com/solar-activity-sunspots-global-warming-advanced.htm Rahmstorf spielt da nur eine Nebenrolle (“Dansgaard-Oeschger Events”). Angesichts so vieler Fakten ist kein Glaube erforderlich.

  52. #52 Anonymous
    https://wowrulergold.blog.cd/
    Oktober 28, 2012

    you are actually a good webmaster. The web site loading velocity is amazing. It sort of feels that you are doing any distinctive trick. Moreover, The contents are masterpiece. you have performed a fantastic process in this matter!

  53. #53 kai
    Oktober 28, 2012

    anonymous, welcome in the realm of true climate hysteric denialism, but beware of vennecke and jan who are utterly ugly co2 warming trolls with all their lies. they will try to convince you – in their terribly primitive school english – of their fraudulent co2 catastrophisms