Saturday, June 6, 2015

Einschätzung des "Hiatus" zu revidieren?

In der vergangenen Woche machte ein Artikel in "science" Furore, wonach die Verlangsamung des Temperaturanstieges in den vergangenen Jahren, gerne als "Hiatus" bezeichnet, in Wirklichkeit viel geringer sei als gemeinhin angenommen - weil die Daten insbesondere der letzten Jahre unzureichend prozessiert worden seien. Nach einer entspechenen Korrektur sei die Verlangsamung der Erwärmung deutlich geringer und stelle keine wirkliche Herausforderung an die Klimaforschung mehr da, so der Tenor des science-Artikels.

Ich wurde daraufhin von einigen Journalisten angesprochen., Meine Antworten waren diese:



Ein bemerkenswerter Artikel, der zwei verschiedene Dinge zeigen könnte, nämlich dass
die bisherigen Behauptungen eines „hiatus“ unzutreffend, und dass das bisherige Verständnis, dass die Bestimmung der oberflächennahen Lufttemperatur keine Herausforderung mehr darstelle, ebenfalls unzutreffend sein könnte.


Welche dieser beiden Behauptungen wichtiger für den zukünftigen Diskurs über den menschgemachten Klimawandel sein würde,  ist zunächst offen. Beide Behauptungen sind signifikant – weil es das in skeptischen Kreisen sehr beliebte Argument des angeblichen Stillstands der global gemittelten Lufttemperatur entkräftet, gleichzeitig aber auch, weil es das ebenso beliebte Argument, dass man sich über den Verlauf dieser Temperatur nicht sicher sein könne, bestärkt.

In dem Artikel werden zahlreiche Korrekturen der Rohdaten besprochen, also Gewichtungen und Veränderungen, die Inkonsistenzen, die sich aus der Höhe oder Tiefe der Probenahmestellen oder der unzureichenden Stationsdichte etwa in der Arktis ergeben, berücksichtigen sollen. Solche Korrekturen sind schon früher eingeführt worden, und wir blicken zurück auf viele Jahrzehnte sorgfältiger Prüfung und Anpassungen, für die insbesondere die Climate Research Unit mit Phil Jones zu Recht berühmt wurde. Solche Korrekturen sind immer in gewisser Hinsicht ad-hoc angesetzt, empirisch quantifiziert und getestet. Die vorliegende Arbeit behauptet, dass gerade die letzten Jahrzehnte, von denen wir annahmen, dass die Datenlage besonders gut und besonders gesichert sei, verstärkte Aufmerksamkeit und spezifische Korrekturen bedürfe. Was die Stationsdichten und ihrer Eignung zur Ableitung global gemittelte Lufttemperaturen angeht, so wurde in der Vergangenheit in Simulationsrechnung anhand von Klimamodellen Daten getestet wie sich aus den unregelmäßigen Stationen sinnvollerweise ein Mittelwert berechnen lässt.

Bisher ist man davon ausgegangen, und so ist es auch immer wieder durch den IPCC beschrieben worden, dass das Problem der Bestimmung der global gemittelten Lufttemperatur keine wirkliche Herausforderung sondern mehr oder minder Routinebetrieb darstelle. Die verschiedenen Einrichtungen, die sich – vermutlich nicht unabhängig voneinander – diese Aufgabe angenommen haben in den USA und in Großbritannien, sind jedenfalls zu ganz ähnlichen Resultaten gelangt, und ein skeptische Nachfrage vom sogenannten BEST- Projekt (Berkely Earth Surface Temperature“) verfestigte dieses Bild.

Mir wurden ein paar Fragen gestellt:

1)   Wie sinnvoll ist die Korrektur der Daten? - Die bisherigen Daten waren ebenfalls korrigiert; müssen es auch sein, um die Vergleichbarkeit der Daten herzustellen. Ob diese verschiedenen Korrekturen schlußendlich "richtig" sind, eine Verschlimmbesserung darstelllen oder später weiter korrigiert werden müssen, ist eine interessante Frage, die weiteren Untersuchungen nach sich ziehen werden.

2)  Ist damit das "große Rätsel der missing heat" mit einem Federstrich erledigt? Oder wirft die Studie nun weitere andere Fragen auf? -  Hier die übliche Wissenschaftlerantwort: Der Artikel  präsentiert eine interessante Hypothese, deren Gültigkeit sich in der nächsten Jahren zeigen wird, wenn andere unabhängige Gruppen sich des Themas annehmen. Jeder kritische Umgang mit der Datenlage ist eine positive Entwicklung, unabhängig davon ob dieser das Konzept des menschgemachten Klimawandels vollinhaltlich unterstützt oder ob dieser Fragezeichen setzt. In jedem Falle bringt der vorliegende Artikel interessante Fragen in die Debatte, und es ist zu hoffen, dass dies zu einer Öffnung der wissenschaftlichen Diskussion führen wird.
Für mich persönlich ist die vorgelegte Evidenz noch nicht ausreichend, um die Folgerung „Hiatus ist ein Artifakt der Temperaturbestimmung“  als zutreffend zu akzeptieren.

3) Finden sie es problematisch, dass die Klimawissenschaft sich so deutlich korrigieren muss?

Auch hier wieder die übliche Wissenschaftler-Rhetorik: wenn sich eine wissenschaftliche Beschreibung als unzutreffend erweist, dann ist sie zu korrigieren - unabhängig von den damit verbundenen Konsequenzen im gesellschaftlichen Raum. Dass Wissenschaft ihre Aussagen unter Umständen korrigieren muss, ist ein gewöhnlicher Vorgang. Wissenschaft verkündet nicht Wahrheit sondern beste Erklärungen im Rahmen des gegenwärtigen Wissens. Wenn Sie dieses ändert, dann ändern sich auch möglicherweise Erklärungen.

Gerade dieser Aspekt der unausweichlichen Vorläufigkeit aller wissenschaftlich konstruierten Wissensansprüche ist in der Vergangenheit mit dem Spruch „the science is settled“ abgebürstet worden. Dies wird in Zukunft schwieriger sein, was ich für eine positive Entwicklung ansehe.



66 comments:

  1. Bestimmung der oberflächennahen Lufttemperatur stelle keine Herausforderung mehr darstellt

    Ich wäre gespannt wo diese Idee her kommt. Es ist schade, dass so wenig Statistiker an dem Problem arbeiten. Beim IMSC kommen leider (fast) keine Statistiker zu der Session zu Homogenisierung. Wenn das wegen dieser falschen Idee ist, ist es gut das diese jetzt korrigiert wurde.

    Vor allem wenn man in minimale Abweichungen wie der "Hiatus" interessiert ist stell man extrem hohe Ansprüche an den Daten und deren Verarbeitung. Ich kenne keine Studie die sagt, dass wir die Temperatur-Anomaly innerhalb von 0.1°C genau bestimmen können.

    War der Temperaturanstieg nicht bereits über ein halbes Grad bevor die Wissenschaft sich getraut hat zu sagen, dass wir eine Erwärmung sehen?

    Wenn es um Änderungen in Extremen geht sind die Datenprobleme noch um einiges großer und die Schätzung der richtigen Korrekturen eine Herausforderung. Ich wurde mich freuen über eine Zusammenarbeit zu diesem Themen mit Statistikern.

    ReplyDelete
  2. This comment has been removed by the author.

    ReplyDelete
  3. ...es gibt ja zusätzliche unabhängige Quellen.
    UAH, RSS zeigen über die letzten 1-2 Dekaden keinen Erwärmungstrend.

    Die Temperaturen der unteren und mittleren Troposphäre sind demnach nicht weiter angestiegen, aber die Oberflächen der Ozeane sollten nun nach dieser neuen Studie sehr wohl einer beinahe signifikante Erwärmung gefolgt sein?
    Interessant, diese "Entkopplung" zwischen an sonst zwei sehr rasch und direkt interagierenden Systemen.

    Vielleicht schafft es aber eine andere Truppe auch die Satelliten Daten so zu korrigieren, dass bis Paris dieser lästige Hiatus endlich vom Tisch ist...

    ReplyDelete
  4. Zum Science-Paper von Karl et al.: Daten wie alte Eimerproben und neue, über den Zufluss für den Schiffsmotor (Wassereinlass für den Motor über den Rumpf des Schiffs) finden leider tatsächlich noch Eingang in die SST. Viel zu ungenau, keine genaue Kalibration, etc.. Eimerproben kühlen sich über Verdunstung ab, Zuflussproben am Schiffsrumpf erwärmen sich übers Schiff, etc..

    Auf den Forschungsschiffen werden CTDs verwendet, schon seit Jahrzehnten, oder Verankerungen, Driftbojen und Foats, auch schon seit Jahrzehnten. Auf diese Daten greift auch z.B. das AWI zurück.

    Die Satellitendaten RSS und UAH zeigen übrigens innerhalb der Fehlergrenzen einen sehr schönen “Hiatus”. Von Satelliten aus wird fast flächendeckend die Temperatur über den Ozeanen bestimmt.

    http://woodfortrees.org/plot/rss/from:1997/plot/uah/from:1997/plot/rss/from:1997/mean:12/trend/plot/uah/from:1997/mean:12/trend

    Z.B. Rahmstorf tut das damit ab, dass es sich dabei um Temperaturen der unteren Atmosphäre und nicht des Bodens handelt. Die untere Atmosphäre erwärmt sich aber nahezu wie der Erdboden. (Denn der Temperaturgradient der unteren Atmosphäre verschiebt sich bei einer Erwärmung zu höheren Temperaturen).

    Satelliten werden übrigens auch dazu eingesetzt, um den CO2-Gehalt und andere Gehalte von Spurengasen in der Atmosphäre zu bestimmen. Das funktioniert auch sehr gut.

    Die Satellitendaten müssen also anscheinend auch noch nachkorrigiert werden, um den “Hiatus” verschwinden zu lassen.

    MfG

    Michael Krüger

    ReplyDelete
  5. Hans,

    schade, dass du diesen Beitrag auf Deutsch verfasst hast. So weit ich sehe, ist dein Argument 'simple but sophisticated' und würde eine Bereicherung in der internationalen Debatte darstellen. Wenn ich in meinen Twitter feed schaue sehe ich reflexartige Antworten. Manche namhafte Klimawissenschaftler hoffen, dass jetzt alles wieder gut ist. Manche verkünden als Tatsache, dass der Hiatus eine Illusion war. Manche gehen so weit zu sagen, dass sich die Klimawissenschaftler von den Skeptikern einen Diskurs haben aufdrängen lassen indem sie von einem Hiatus sprachen...

    ReplyDelete
  6. Reiner, ich wurde auf Deutsch von den Journalisten gefragt, also Antwort auf Deutsch. Ich fand auch die Antworten der Kollegen bei Bojanowski auf SPON nicht im Widerspruch zu meinen Aussagen.

    ReplyDelete
  7. Ja ist schon klar, aber das Thema wird weltweit diskutiert und man kann mit einem größeren Publikum kommunizieren auf Englisch.

    ReplyDelete
  8. Wessen Einschätzung des "Hiatus", der "Pause" oder des "slowdowns" muss revidiert werden?

    Meine Einschätzung (die wohl auch der der allermeisten Klimawissenschaftlern ähnelt) war die, dass der "Hiatus" hauptsächlich auf natürliche Variabilität zurückzuführen ist. Was ändert sich, wenn ein Anbieter einer Temperaturzeitreihe den Trend auf 0,11°C/dek erhöht hat? Antwort: Nichts, der Wert ist immer noch unterdurchschnittlich.

    Es gibt auf Skeptikerseite natürlich andere Einschätzungen:

    Der Hiatus beweise, dass alle Modelle falsch seien.
    Der Hiatus werde noch lange anhalten.
    Der Hiatus zeige, dass global warming gestoppt sei.
    Der Hiatus zeige, dass ....

    Meiner Meinung nach war der größte Erfolg der Skeptiker in den letzten Jahren, eine überhöhte Bedeutung des Hiatus in Medien und Öffentlichkeit (und auch in Teilen der Wissenschaft? Seapage?) zu verankern. Bei denen, die diese überhöhte Einschätzung geteilt haben, ist die Aufregung, die "internationale Debatte" findet dort statt.

    Aber diese Deutung wird in den nächsten zehn Jahren sowieso zusammenbrechen, nämlich dann, wenn die natürliche Variabilität anschiebend auf die Erwärmung wirkt. Der wahrscheinliche neue Temperaturrekord für 2015 tut ein übriges, mehr als jede Datenanpassung jedes Temperaturanbieters.


    PS:
    Herr Krüger, die UAH-Satellitendaten wurden vor wenigen Wochen deutlich "angepasst". Zuvor zeigte UAH noch mit den höchsten Trend in den letzten 10 - 15 Jahren, jetzt deutlich weniger. Geschrien hat bei Spencer niemand. Wenn Leute überzeugt sind, einen Bias gefunden und diesen beheben zu können, dann wird man das natürlich tun. Und ja, liebe Leute vom Spiegel (siehe Frage 1): Das ist selbstverständlich sinnvoll, alles andere wäre absurd.

    Andreas

    ReplyDelete
  9. Der Hiatus hat(te) für die Wissenschaft zwei Dimensionen:
    a) Ist so eine Phases verlangsamter Erwärmung konsistent mit der Erklärung, dass diese Erwärmung dominiert wird von der Gegenwart von Treibhausgasen, und
    b) wieso konnten die Modelle nicht vor dem Ereignis die Möglichkeit solcher Langsamphasen antizipieren?

    Die Ausmerksamkeit ging vor allem auf a), und sehr viele Erklärungen wurden vorgeschlagen, um Konsistenz zu konstruieren. Dabei war, wie Andreas behauptet, die Erklärung "natürliche Variabilität" an prominenter Stelle. Diese Erklärung kann richtig sein (sofern denn der Hiatus überhaupt so richtig beschrieben ist), aber für
    die Bewertung der Erwärmung, nämlich, ob der Anstieg weit ausserhalb der natürlichen Variabilität liegt, ist es natürlich problematisch, wenn wir jetzt finden, dass wir die natürliche Variabilität unterschätzt haben könnten. Diese Variabilität leiten wir gemeinhin aus Kontrollsimuölationen ab, die die natürliche Variabilität darstellen sollen - also der Punkt b). Dann hätten wir: Konsistenz gefunden, Detektion schwieriger geworden. Da wäre es schon praktischer, dass die Ausgangsdaten, die bewertet werden sollen, falsch sind.

    Andererseits sollte man sich klar machen, dass es hier um ad-hoc Reparaturen geht; klug gemacht, aber doch in Maßen willkürlich.

    Jemand beklagte sich, dass man ungenaue Eimer-Daten nutzen würde. Wir brauchen zur Bewertung des Klimawandels lange Reihen, die über die Zeit vergleichbar sind. Ohne die alten Schiffsdaten ginge das nicht; wenn in der Zwischenzeit genauere Daten vorliegen, kann man ggfs nicht mehr sagen, ob eine Veränderung an dieser erhöhten Genauigkeit liegt oder an einem echten Wandel. Homogentiät nennt man die erforderliche Eigenschaft.



    ReplyDelete
  10. Hans,

    "In der vergangenen Woche machte ein Artikel in "science" Furore, wonach die Verlangsamung des Temperaturanstieges in den vergangenen Jahren, gerne als 'Hiatus' bezeichnet, in Wirklichkeit viel geringer sei als gemeinhin angenommen - weil die Daten insbesondere der letzten Jahre unzureichend prozessiert worden seien."

    Wenn der "Hiatus" der globalen (Oberflaechen)Erwaermung eine "Verlangsamung des Temperaturanstiegs" sein soll, dann liegt ein "Hiatus" assymptotisch 50 Prozent der Zeit fuer ein gegebenes Zeitintervall vor. Denn 50% der Zeit liegt der Temperaturtrend unter dem Median des Trendverteilung. Und an die 50% liegt der Trend ueber dem Median der Trendverteilung. Was haben wir dann? Eine "Vergroesserung" des Temperaturanstiegs? Wenn das der "Hiatus" sein soll, dann ist das eine sehr triviale Definition fuer "Hiatus", und diese legt die Frage nahe, warum ueberhaupt der Begriff "Hiatus" fuer etwas verwendet wird, das eine Eigenschaft jeder Trendverteilung ist. Das Gewicht, das dem angeblichen "Hiatus" in Diskussionen gegeben wird, ist damit auch nicht konsistent.

    "Für mich persönlich ist die vorgelegte Evidenz noch nicht ausreichend, um die Folgerung „Hiatus ist ein Artifakt der Temperaturbestimmung“ als zutreffend zu akzeptieren."

    Was ist denn ueberhaupt erst mal die "Evidenz" fuer diesen "Hiatus"? Ich wuerde mir wuenschen, dass diejenigen, die Aussagen treffen, dass so ein "Hiatus" vorliegen wuerde, endlich mal eine wissenschaftliche sinnvolle Definition fuer diesen angeblichen "Hiatus" vorlegen wuerden, z.B. eine, die einen "Hiatus" von einem Nicht-Hiatus anhand klarer statistischer Kriterien abgrenzt. Und dann muessten die empirisch-statistischen Belege vorgelegt werden, dass so ein "Hiatus" fuer die betreffende Zeitperiode tatsaechlich vorliegen wuerde. Eine ganze Menge an papers sind geschrieben worden, was den "Hiatus" verursachen wuerde, aber unter allen, die ich gelesen habe - wobei ich nicht ausschliessen kann, welche uebersehen zu haben -, wuesste ich keines, das den "Hiatus" klar und sinnvoll definiert haette und das eine Abgrenzung von einem Nicht-Hiatus vornimmt. "Hiatus", mit oder ohne Anfuehrungszeichen, wird in diesen papers einfach als fait-accompli akzeptiert und maximal als Verringerung des Temperaturtrends im Vergleich zum Trend ueber multiple Dekaden oder im Vergleich zum Median beschrieben, was etwas ist, wie oben bereits gesagt, das 50% der Zeit vorliegt. Wobei die Analysen im Allgemeinen voellig OK sind, aber eben doch nichts anderes machen, als Ursachen fuer Variabilitaet des Temperaturtrends innerhalb der Trendverteilung auf kuerzeren Zeitskalen zu untersuchen. Was auch ein voellig legitimer Gegenstand wissenschaftlicher Forschung ist. Wir wollen ja auch verstehen, was Variabilitaet im Erdsystem auf kuerzeren Zeitskalen verursacht und nicht einfach nur diagnostizieren, dass es solche gibt. So habe ich den Eindruck, dass "Hiatus" eher eine Modeterm ist, ohne substantielle wissenschaftliche Basis. Der Begriff des "Hiatus" oder "die Pause" ist ja auch gar nicht in der Sphaere der Wissenschaft generiert worden, sondern wurde aus der Sphaere der Politik und Ideologie in die Wissenschaft hineingetragen.

    ReplyDelete
  11. Jan,

    Wenn das der "Hiatus" sein soll, dann ist das eine sehr triviale Definition fuer "Hiatus", und diese legt die Frage nahe, warum ueberhaupt der Begriff "Hiatus" fuer etwas verwendet wird, das eine Eigenschaft jeder Trendverteilung ist."

    Fairerweise muss man sagen, dass erst in den letzten Jahren die Hinweise gefunden worden sind, dass es natürliche Variabilität ist. Das begann mit Kosaka/Xie 2012. Vorher waren die Gründe unklar, Dauer und Stärke der Verlangsamung waren ja durchaus ungewöhnlich. Evidenz für diese Ungewöhnlichkeit wurde z.B. im bei Nature eingereichten Paper von HvS nachgewiesen, wir hatten damals die Diskussion darüber hier (Zufall? Forcings? Klimasensitivität?).

    Nun gut, den Namen "Hiatus" dafür zu prägen und in die Medien zu bringen, war ein gelungener PR-Coup. Warten wir ab, ob für den nächsten überdurchschnittlichen Anstieg auch ein Begriff erfunden werden wird, wie wär's mit der "accaleration"? ;-)

    Andreas

    ReplyDelete
  12. Grr, ich hasse Rechtschreibfehler, "acceleration" sollte es heißen.

    Aber immerhin, der "Hiatus" hat mMn die Wissenschaft befruchtet, man weiß heute mehr als vorher.

    Andreas

    ReplyDelete
  13. Jan,
    in meinem Beitrag hatte ich von Hiatus so gesprochen:
    die Verlangsamung des Temperaturanstieges in den vergangenen Jahren, gerne als 'Hiatus' bezeichnet,
    und Du machst daraus:
    eine "Verlangsamung des Temperaturanstiegs" .
    Das ist schon eine bemerkenswerte Metamorphose: aus "der Verlangsamung in den vergangenen Jahren" machst Du "eine Verlangsamung". Hiatus ist der Name eines bestimmten Ereignisses, von dem jetzt von einigen gesagt wird, es habe es so nicht gegeben. Mal sehen, wie sich die Diskussion dazu zwischen den einschlägigen Gruppen entwickeln wird.

    In diesem Zusammenhang solltest Du Dir vielleicht diesen Artikel mal ansehen: Fyfe, J., N. P. Gillett and F. W. Zwiers, 2013: Overestimated global warming over the past 20 years, nature climate change 3, 767-769

    ReplyDelete
  14. Wenn ich mich richtig entsinne, gibt es drei Definitionen von Hiatus:

    1. Der Trend in den letzten x Jahren ist statistisch nicht signifikant

    2. Der Trend in den letzten x Jahren ist statistisch nicht signifikant unterschiedlich vom Trend in den x Jahren davor

    3. Der Trend in den letzten x Jahren kommt in den Klimasimulationen, die mit Treibhausgasen angetrieben werden, sehr selten vor.

    Definition 1 wurde von Skeptikerkreisen verwendet, als Argument, dass 'Global warming has stopped'. Definition 2 wurde, denke ich, dann eher von den 'offiziellen' Klimaforschung hervorgebracht. Beide Definitionen 1. und 2. sind in gewisser Masse subjektiv, da die statistische Signifikanz von der Auslegung einer Null-Hypothese abhängt, und jeder kann sich die eine oder andere Nullhypothese basteln. Der gleiche Trend kann für einige signifikant sein, für andere nicht.

    Ich sehe die interessanteste wissenschaftliche Frage eher in Definition 3. Zum einem, es lässt sich objektiver beurteilen, ob ein Hiatus eingetreten ist. Jedenfalls man kann es objektiver quantifizieren : nur x% der Simulationen sind kleiner als der beobachtete Trend. Natürlich spielt hier die Unsicherheit in den Beobachtungen eine Rolle, aber diese ist in den Definitionen 1 und 2 auch ein Problem.
    Ich denke auch, dass in Definition 3 auch das Hauptproblem liegen kann. Die Erwärmungsraten in den Simulationen sind systematisch grösser als in den Beobachtungen, und das ziemlich unabhängig davon, welche Periode man nimmt. Zu diesem Zeitpunkt ist dies für mich ein Zeichen dafür, dass es sich nicht um ein Problem der Simulationen der internen Variabilität durch die Modelle handelt, sondern doch einer Übersachätzung der Klimasensitivität. Man muss allerdings berücksichtigen, dass einige Klimaantriebe noch ungenau bekannt sind, z.B. Aerosole und Vulkanismus.

    Andreas hat aber auf eine interessante Situation hingedeutet. Selten kann man in der Klimaforschung kurzfristige, verifizierbare, Vorhersagen finden, und Andreas hat gerade eine ziemlich klar ausgesprochen: in den naschten 10 Jahren soll sich die Erwärmungsrate beschleunigen. Andreas, wenn das nicht eintritt, was denn ?

    ReplyDelete
  15. Eduardo

    Was dann? Dann spende ich etwas für einen guten Zweck, Sie bestimmen das Spendenziel. Um es quantifizieren zu können: Ich tippe auf eine Erwärmung von mehr als 0,3°C bis 2030.

    In ihrem Beitrag haben Sie auch etwas geleistet, was mir als Frage auf der Zunge lag: Wie ist "Hiatus" definiert? Mir scheint, jeder hat so seine Vorstellung von Hiatus. Mir scheint, dass bei denen, die Definition 2 bevorzugen, auch eine andere Definition von global warming vorliegt als bei Skeptikern.

    Sie beleuchten den wissenschaftlich interessanten Aspekt des Hiatus, und da stimme ich in weiten Teilen zu.

    Ich bezog mich dagegen mehr auf das, was so durch Medien geistert, z.B. vor wenigen Tagen Fritz Vahrenholt im Manager-Magazin:

    Es häufen sich aber die wissenschaftlichen Erkenntnisse, das die Klimawirkung des CO2 durch den Weltklimarat maßlos überschätzt worden ist. Seit 16 Jahren hat es keine signifikante globale Erwärmung mehr gegeben, obwohl doch in diesem Zeitraum ein Drittel der historischen CO2 Emissionen erfolgten und der CO2-Gehalt der Atmosphäre Jahr für Jahr steigt. Die Klimamodelle, die sich allesamt in ihren Prognosen als falsch erwiesen haben, können die natürlichen Schwankungen des Klimas nicht berechnen.

    Die 60-jährigen zyklischen Ozeanströmungen haben zur Häfte zur Erwärmung zwischen 1978 und 1998 beigetragen und jetzt , da sie in ihre kühle Phase übergegangen sind, wird bis 2030 keine wesentliche Erwärmung zu erwarten sein.


    Das ist das, was ich als skeptische Überhöhung des "Hiatus" bezeichnet habe. Andere schreiben sogar schon von einer bevorstehenden Abkühlung.
    Ich prophezeie mal, über solche Vorhersagen wird man 2030 nur den Kopf schütteln.

    Andreas

    ReplyDelete
  16. Hans,

    Es war nicht meine Absicht, deine Aussage zu verdrehen. Der Gedanke ist mir gar nicht gekommen, dass es hier um das Verwenden des bestimmten oder unbestimmten Artikels vor dem Wort Verlangsamung gehen wuerde. Der unbestimmte Artikel war auch gar nicht Teil des woertlichen Zitats. Es geht mir um die Definition von "Hiatus" oder "Pause", wie diese Periode von manchen auch bezeichnet wird ("Hiatus" ist ja auch nur lateinisch fuer "Pause"). Wenn nun einzig und allein die Periode des unterdurschnittlichen Temperaturtrends in den letzten Jahren "der Hiatus" sein soll, dann wirft das doch erst Recht die Frage nach einer sinnvollen wissenschaftlichen Definition und statistischen Abgrenzung gegenueber anderen Perioden auf, wo der Trend auch unter dem Durchschnitt liegt, was ja fuer 50% aller Trends fuer eine gegebene (symmetrische) Trendverteilung der Fall ist. Was macht "die Verlangsamung des Temperaturtrends in den vergangenen Jahren" zu einem "Hiatus", im Vergleich zu all den anderen der 50%? Statistisch signifikant verschieden vom beobachteten Erwaermungstrend ueber multiple Dekaden, der selbst hochgradig statistisch signifikant ist, ist diese "Verlangsamung" ja nun nicht.

    Die Studie von Fyfe et al. kenne ich. Aber in dieser geht es ja mehr um einen Vergleich zwischen beobachteten Oberflaechentemperaturtrend und den Oberflaechentemperaturtrends in den CMIP5-Simulationen, was eine etwas andere Fragestellung ist. Mir ist bei dieser Studie aufgefallen, dass diese zu dem Ergebnis kommt, basierend auf einem simplen Modell, das von Fyfe et al. verwendet wird, um den ENSO-Einfluss auf die globale Temperatur zu simulieren, dass der Einfluss von ENSO-Variabilitaet auf die Temperaturvariabilitaet nahe Null waere, selbst fuer die Periode 1998-2012. Das steht doch etwas im Widerspruch zum Ergebnis einiger anderer Studien zum Einfluss der ENSO-Phase auf den Temperaturtrend, vor allem ueber kuerzere Perioden wie 15 Jahre, wie die von Kosaka and Xie, Nature (2013), doi:10.1038/nature12534, Foster and Rahmstorf, ERL (2011), doi:10.1088/1748-9326/6/4/044022, Kaufmann et al., PNAS (2011), 10.1073/pnas.1102467108, Risbey et al., NCC (2014), doi:10.1038/NCLIMATE2310. Ob ENSO-Variabilitaet einen starken oder kaum einen Einfluss auf die beobachtete Temperaturvariabilitaet seit 1998 gehabt hat, ist sehr wahrscheinlich ein wesentlicher Faktor fuer das Ergebnis jeder Analyse zur Frage, ob tatsaechlich eine grosse Diskrepanz zwischen den Beobachtungen und Simulationen besteht.

    Und eine Definition fuer "Hiatus" wird auch von Fyfe et al. nicht so richtig gegeben. Die Autoren schreiben, bezogen auf die Periode 1998-2012:
    "For this period, the observed trend of 0.05 ± 0.08 °C per decade is more than four times smaller than the average simulated trend of 0.21 ± 0.03 °C per decade (Fig. 1b). It is worth noting that the observed trend over this period — not significantly different from zero — suggests a temporary
    ‘hiatus’ in global warming 2–4."


    Die Autoren postulieren lediglich, dass ein beobachteter Trend von 0.5+/-0.08 C einen temporaeren "Hiatus" in der globalen Erwaermung suggerieren wuerde, als waere das selbst-evident, wobei Fyfe et al. sich fuer diese Aussage auch nur auf einen Datensatz stuetzen. Warum das ein "temporary 'hiatus' in global warming" sein soll, wird von Fyfe et al. nicht erklaert. Es ist nicht selbst-evident. Mangel an statistischer Signifikanz im Vergleich zum Nulltrend kann es ja nicht sein. Denn dann gaebe es immer einen "Hiatus". Man findet immer eine Zeitperiode, fuer die der Trend nicht statistisch signifikant vom Nulltrend unterschieden werden kann, wenn man die Zeitperiode nur kurz genug waehlt.

    ReplyDelete
  17. This comment has been removed by the author.

    ReplyDelete
  18. 0.3C in 15 Jahren = 0.2C /Dekade. Das ist immer noch weniger als von den Modellen im Mittel prognostiziert = 0.3C /Dekade.
    Ihre Zahl wäre keine Beschleunigung im Sinne der Modelle, sondern immer noch eine Verlangsamung. Damit die Prognosen der Modelle bis 2030 erfüllt werden, muss deutlich mehr passieren

    ReplyDelete
  19. Es gibt hier anscheinend ein Problem mit einem html-tag, der in einem vorigen Kommentar nicht geschlossen wurde.

    ReplyDelete
  20. Ah, die Zahl der erlaubten Zeichen ist auf 4096 beschraenkt worden. Das habe ich nun vom Vielschreiben.

    eduardo,

    "Definition 1 wurde von Skeptikerkreisen verwendet, als Argument, dass 'Global warming has stopped'."

    Bis hin zu solchen absurden Aussagen, dass global warming gestoppt haette, weil der Trend nicht mit 95% statistisch signifikant waere. Selbst wenn das 94%-Signikanzlevel ueberschritten ist.

    Diese Definition fuehrt zu logischen Widerspruechen. Es wird dabei ein Prinzip statistischer Beweisfuehrung verletzt, dass ein fehlgeschlagener Signifikanztest nicht die alternative Hypothese falsifiert. Das Ergebnis ist dann nur nicht konklusiv mit den vorliegenden Daten.

    "Definition 2 wurde, denke ich, dann eher von den 'offiziellen' Klimaforschung hervorgebracht."

    Definition 2 war:
    "2. Der Trend in den letzten x Jahren ist statistisch nicht signifikant unterschiedlich vom Trend in den x Jahren davor."

    Ist das korrekt? Ist da nicht ein "nicht" zu viel? Sollte das vielleicht heissen, "Der Trend in den letzten x Jahren ist statistisch signifikant unterschiedlich vom Trend in den x Jahren davor."?

    Es soll ja getested werden, ob die beiden Trends verschieden sind.

    Wenn Definition 2 die der "offiziellen" Klimaforschung waere, dann muesste man ja diese Definition in irgendwelchen Veroeffentlichungen dieser finden. Im letzten IPCC-Report findet man aber z.B. so eine Definition nicht. Und ist nicht der IPCC-Report die beste Repraesentation der "offiziellen" Klimawissenschaft? Definition 2 (in der von mir korrigierten Form) wuerde Sinn machen, wenn man testen will, ob man von einer statistisch signifikante Trendaenderung sprechen kann.

    "Beide Definitionen 1. und 2. sind in gewisser Masse subjektiv, da die statistische Signifikanz von der Auslegung einer Null-Hypothese abhängt, und jeder kann sich die eine oder andere Nullhypothese basteln. Der gleiche Trend kann für einige signifikant sein, für andere nicht."

    Der Wahl der Null-Hypothese und das Signifikanzlevel sind aber zwei verschiedene Dinge. Die Null-Hypothese haengt von der Fragestellung ab. Nicht jede beliebige Null-Hypothese ist logisch sinnvoll fuer eine gegebene Fragestellung. Wenn ich testen will, ob die globale Erwaermung statistisch signifkant ist, dann ist der Nulltrend die logisch sinnvolle Null-Hypothese. Will ich testen, ob die globale Erwaermung aufgehoert hat, ist der voherige oder laengerfristige Erwaermungstrend die logisch sinnvolle Null-Hypothese. Die Wahl des Signifikanzlevels ist sicherlich subjektiv, aber das Level wird ja auch im Allgemeinen angegeben. Und als Wissenschaftler sind wir ja so und so daran gewoehnt, dass wir keine Absolut- sondern Wahrscheinlichkeitsaussagen treffen.

    ReplyDelete
  21. ... Fortsetzung

    "Ich sehe die interessanteste wissenschaftliche Frage eher in Definition 3. Zum einem, es lässt sich objektiver beurteilen, ob ein Hiatus eingetreten ist. Jedenfalls man kann es objektiver quantifizieren : nur x% der Simulationen sind kleiner als der beobachtete Trend."

    Die Wahl des Signifikanzlevels ist in diesem Fall nicht weniger subjektiv als anderswo. Auch muss man hier vorsichtig sein. Wenn man von den beobachteten Trends eine Zeitperiode auswaehlt, bei der man schon vorher weiss, dass diese am Rand der Verteilung der Trends in der Natur liegt, wie die zwischen 1998-2012, dann wird diese auch am Rand der Verteilung der Modellsimulationen liegen, selbst wenn beide Verteilungen voellig identisch sind. Ein gewoehnlicher Signifikanztest ist dann auch nicht mehr ausreichend. Es handelt sich ja nicht mehr um einen zufaellig gewaehlten Trend.

    Auch sehe ich hier das Problem, dass zwei Fragestellungen vermischt werden und das zu Verwirrung fuehrt. Nehmen wir mal an, dass der laengerfristige Trend in der Natur bei 0.15 K per decade liegt, aber der Mediantrend der Modellsimulationen bei 0.25 K per decade. Dann gibt es zwar einen Bias in den Simulationen, aber das bedeutet doch dann nicht, dass es einen "Hiatus" der globalen Erwaermung gaebe. Die globale Erwaermung findet doch trotzdem statt, wenn auch mit einer geringeren Rate als simuliert. "Hiatus" waere dann ein klarer Misnomer.

    ReplyDelete
  22. eduardo,

    0.3C in 15 Jahren = 0.2C /Dekade. Das ist immer noch weniger als von den Modellen im Mittel prognostiziert = 0.3C /Dekade.

    Wo kommen die 0.3 C/Dekade her, die von den Modellen prognostiziert wuerden?

    Im letzten IPCC-Report Report steht:

    "Figure 11.9 (a) and (b) show CMIP5 projections of global mean surface
    air temperature under RCP4.5. The 5 to 95% range for the projected
    anomaly for the period 2016–2035, relative to the reference period
    1986–2005, is 0.47°C to 1.00°C (see also Table 12.2).

    (IPCC Report 2013, Chapter 11, page 980)

    Das macht einen Trend der 20-Jahres-Mittel zwischen 0.16 und 0.33 C/Dekade, mit einem Median von 0.24 K/Dekade, der von den Modellen fuer die gegebenen Annahmen bzgl. der Entwicklung der Klimatreiber fuer RCP4.5 fuer die nahe Zukunft simuliert wird.

    ReplyDelete
  23. Ich denke das IPCC hat ja in Box 9.2 des Kapitel 9 eine Definition des Hiatus gegeben:
    The observed global-mean surface temperature (GMST) has shown a much smaller increasing linear trend over the past 15 years than over the past 30 to 60 years (Section 2.4.3, Figure 2.20, Table 2.7; Figure 9.8; Box 9.2 Box 9.2 Figure 1a,c). Depending on the observational data set, the GMST trend over 1998–2012 is estimated to be around one-third to one-half of the trend over 1951–2012 (Section 2.4.3, Table 2.7; Box 9.2 Figure 1a,c). For example, in HadCRUT4 the trend is 0.04 oC per decade over 1998–2012, compared to 0.11 oC per decade over 1951–2012. The reduction in observed GMST trend is most marked in Northern- Hemisphere winter (Section 2.4.3, (Cohen et al., 2012)). Even with this “hiatus” in GMST trend, the decade oft he 2000s has been the warmest in the instrumental record of GMST (Section 2.4.3, Figure 2.19). Nevertheless, the occurrence of the hiatus in GMST trend during the past 15 years raises the two related questions of what has caused it and whether climate models are able to reproduce it.

    ReplyDelete
  24. Eine Zwischenfrage:

    Welcher lineare Trend ist denn eigentlich der "anthropogene global warming" - Trend nach offizieller Lesart der in der Natur vorliegt?

    Der Trend von 1970 bis 2014 oder der Trend von 1951 bis 2014 oder der Trend von 1880 - 2014 oder etwa der von 1900 bis 2000. Wie wählt man das aus?

    Hier müsste doch die Definition starten. Im Zeitraum von 1970 bis 2000 passt eben ein linearer Fit sehr gut. Ist das das Kriterium? Das gleiche gilt aber von 1910 bis 1940.

    Es ist ja jetzt nichts Überraschendes das eine verrauschte Überlagerung von verschiedenen Funktionen Perioden hat in denen ein linearer Fit besser passt.

    Die entscheidende Frage wäre aber doch. Wie zerlegt man die Daten in natürliche Variabilität und linearen Trend aufgrund AGW, vorausgesetzt das AGW - Signal ist überhaupt ein linearer Trend.
    Und wann beginnt das AGW-Signal?

    Die Auswahl einer willkürlichen Periode mit einem linearen Fit als "Global Warming" zu bezeichnen und die Abweichung bzw. eine Signatur in den Residuen als natürliche Variabilität zu erklären scheint mir nicht korrekt zu sein.

    Wenn doch, wäre ich für eine Erklärung dankbar.

    ReplyDelete
  25. Nach meiner Wahrnehmung ist "Hiatus" kein wissenschaftlicher Begriff sndern ein Begriff aus der Alltagssprache, die in Regel mächtiger ist als die wissenschaftliche (genauere) Sprache. "Hockeystick" war auch der alltagssprachliche Name für eine Phänomen, das in der Wisssenschaft beschrieben - und dann mit diesem Begriff popularisiert wurde. Hiatus ist ähnlich, und er hat eine Konnotation in den sozialen Konstruktionen von Klimawandel, Klimakatastrophe, Klimaschutz etc. (Aus der Existenz einer Pause kann man ja schliessen, wie Andreas es tut, dass es irgendwann weitergeht.)
    Eduardo hatte verschiedene Deutungen des Wortes, wie sie in verschiedenen Ecken der Diskussionslandschaft benutzt werden, aufgeführt. Dass das Konzept der Signifikanz von Trends in diesem zusammenhang wissenschaftlich kaum Sinn macht - und meist falsch genutzt wird, weil ohne serielle Korrelation "getestet" - dem stimme ich gerne zu, aber es ändert nichts daran, dass dies Konzept oft genutzt wird, dass es gesellschaftlich real ist.
    Jan bemerkt, dass das Problem des Mexican Hat hinzutritt. Nur ist natürlich die Kurve der Temperaturentwicklung in den letzten 150 Jahren schon lange ein Mexican Hat. Die Kliamforschung beschreibt auffällige Phänomene, und danach wird dann häufig getestet, ob da was auffällig ssei - alles Mexican Hats.

    ReplyDelete
  26. Jan,

    'Wo kommen die 0.3 C/Dekade her, die von den Modellen prognostiziert wuerden?
    "Figure 11.9 (a) and (b) show CMIP5 projections of global mean surface
    air temperature under RCP4.5. The 5 to 95% range for the projected
    anomaly for the period 2016–2035, relative to the reference period
    1986–2005, is 0.47°C to 1.00°C '


    Unter Szenario 4.5. Das ist aber nicht business as usual. Für die Periode 1993 -2013
    simulieren die Modelle einen Trend von 0.3C/dekade (Fyfe et al. Nature Climate Change 2013). Unter business as usual, würde ich annhemen, dass der simulierten Trend unverändert bleibt.





    'Wenn ich testen will, ob die globale Erwaermung statistisch signifikant ist, dann ist der Nulltrend die logisch sinnvolle Null-Hypothese'

    Das ist keine vollständige Nullhypothese. Man soll außerdem vorschreiben, welcher statistischer Prozess die 'Normalität' beschreibt. Ein AR-1 Prozess oder ein fractional-differencing Prozess, beide Trendlos, als Nullhypothese ergeben ziemlich unterschiedliche Werte des 95% Signifikanzniveaus. Deutlicher wir es, wenn man beispielsweise als Nullhypothese eine Sinuswelle mit Perioden von 40 Jahren vorschreibt. Dann kann jeder Trend, der kurzer als 20 Jahre ist, als nicht signifikant deklariert werden.

    'Die Wahl des Signifikanzlevels ist in diesem Fall nicht weniger subjektiv als anderswo. Auch muss man hier vorsichtig sein. Wenn man von den beobachteten Trends eine Zeitperiode auswaehlt, bei der man schon vorher weiss, dass diese am Rand der Verteilung der Trends in der Natur liegt, wie die zwischen 1998-2012, dann wird diese auch am Rand der Verteilung der Modellsimulationen liegen'
    Dafür kann man aber nicht nur eine Periode testen, sondern möglichst viele.
    Aber im übrigen, wissen wir nicht, ob der Trend 1998-2012 am Rande der natürlichen Verteilung liegt, da wir den wahren Wert der Klimasensitivität nicht wissen. Vielleicht war der Trend davor, der am Rand lag.



    'Wenn Definition 2 die der "offiziellen" Klimaforschung waere, dann muesste man ja diese Definition in irgendwelchen Veroeffentlichungen dieser finden.'

    zum Biespiel hier

    ReplyDelete
  27. @ Eduardo

    Meine 0,2°C wurden im alten AR4 als Durchschnittswert pro Jahrzehnt für die nächsten Jahrzehnte genannt. Dass der AR5 höhere Werte nennt, überrascht mich, 0,3° pro Dekade erscheint mir etwas hoch. Bei mehr als +0,5°C bis 2030 wäre ich jetzt schon etwas zurückhaltender, da ein Vermögen drauf zu wetten.

    Vom Gefühl her, wo denn nun genau die Klimasensitivität anzusiedeln ist, würde ich antworten, 3° erscheint mir etwas zu hoch, ich würde eher so auf Werte in Richtung 2,5°C tippen. Irgendwie hat der Hiatus auch bei mir schon Eindruck hinterlassen...

    Andreas

    ReplyDelete
  28. Hans 26

    weiss man denn ab wann der Begriff Hiatus fuer die Temp Entwicklung nach 1998 in Gebrauch kam? Ich hatte den Eindruck es war ein (IPCC, offizieller) Alternativbegriff zu Pause, lanciert von Klimaskeptikern. Kann mich aber taeuschen.

    Die Frage wieviel Umgangssprache in der Wissenschaft sein sollte wurde beruehmterweise durch George Orwell aufgeworfen. In der Financial Times diskutiert Tim Harfod diese Frage anhand der Wirtschaftswissenschaften ("Down with mathiness!").

    http://www.ft.com/cms/s/0/c6edf100-0964-11e5-8534-00144feabdc0.html

    ReplyDelete
  29. ' Irgendwie hat der Hiatus auch bei mir schon Eindruck hinterlassen...'

    Hiatus? Welcher Hiatus ?

    Andreas, wenn Sie, ein bodenständiger Bürger, schon wackeln, dann ist die Lage wirklich ernst.

    ReplyDelete
  30. Eduardo

    Na, der nach Definition #3 natürlich. Der Hiatus nach Def #1, nach welchem global warming gestoppt sei, hat nie existiert.

    Aber im Ernst: Zu meinem Gefühl trägt mehr bei als die letzten 15 Jahre. Das Aerosolforcing scheint ja niedriger zu sein als früher gedacht, Bestimmungen aus dem letzten LGM etc.

    Auf welchen Wert der ECS würden Sie denn ihr Geld setzen, Eduardo?

    Andreas

    ReplyDelete
  31. @Rainer #29:
    Wenn ich mich nicht irre, war "hiatus" im wissenschaftlichen Kontext in der Geologie heimisch (hiatus = gap, missing part, e.g. missing sediment in a sediment series or core). Als Pause oder Unterbrechung eines Trends erscheint der Begriff neu zu sein. Die Younger Dryas wäre sonst auch ein typischer Hiatus (allerdings keinesfall im geologischen Sinne, da keine Abwesenheit von Daten/Sediemten etc. gemeint ist).

    ReplyDelete
  32. seltsame Diskussion und Reaktionen.

    Hiatus hin oder her, hab eh nie verstanden, warum das wichtig sein soll. Grundmann bspw. hat den Begriff andauernd genutzt und jetzt weiß er nicht mal, wie er aufkam. Warum haben sie den Begriff denn genutzt, wenn sie den Hintergrund nicht kennen, Grundmann? Grundmann, sie haben doch ganz andere Stärken, warum nehmen sie nicht einfach Grundwissen als Ausgangsbasis, reicht vollkommen für ihre Analysen? So bieten sie Angriffsfläche, die ihre gute Arbeit "maskiert".

    Ich frage mich auch, warum man ein "Ausreißerjahr" (kann man diesen stat. Begriff hier überhaupt nutzen, das Jahr gab es ja?) als Startdatum für einen kurzfristigen Zeitraum nimmt. Auch die fehlerhafte Nutzung der Signifikanzbetrachtung ist seltsam, aber auch hausgemacht. Hat man ja auch umgekehrt genutzt. So kein Vorwurf dafür.

    Oder nehmen wir diesen Post von Zorita. http://klimazwiebel.blogspot.de/2010/04/cant-you-see-acceleration.html Wiederholen sie mal das Experiment mit aktuellen Daten, Zorita. Wir sind ja 5 Jahre weiter. Soll man wirklich in 15 Jahren Meeresspiegeldaten eine Beschleunigung sehen können? Ich denke nicht.

    Nun gut, wie auch immer. Werner Krauss, der mit Abstand beste Zwiebelist, sagte mal, ein Rekord wie 1998 kommt immer zweimal. Einmal in einem alarmistischen Sinne und einmal als "skeptisches" Argument. Recht hat er.

    Auch seltsam, dass politische Fragen, die viel wichtiger sind, als dieses Krimskrams hier, viel weniger Resonanz erzeugen. Hmmmm....

    Best,
    GHB

    ReplyDelete
  33. 'Auf welchen Wert der ECS würden Sie denn ihr Geld setzen, Eduardo?'

    In der Tat ist es eine subjektive Einschätzung, da Modelle, Beobachtungen und Paleoklima nicht ganz übereinstimmende Werte liefern. Aus heutiger Sicht würde ich mein Geld, wenn ich unbedingt müsste, auf 1.6 K setzen . Allerdings, nicht viel Geld.

    ReplyDelete
  34. @ Eduardo

    Das überrascht mich. Ich hätte gedacht, wir wären recht nahe beieinander.
    Wie kommen Sie auf ihre Einschätzung? Selbst wenn wir mal eine Methode betrachten, die den Hiatus enthält (z.B. Otto et al.), dann werden dort 1,5°C als unwahrscheinlich genannt. Hätte man nicht Probleme, den Ausgang aus dem Last Glacial Maximum mit 1,5° zu erklären?

    PS:
    Vorsicht, Eduardo, kein Wort an Cook: Mit ihrem Wert bewegen Sie sich an der Grenze, wo man von Cook et al. als die 3% bezeichnet wird ;-)

    Grüße
    Andreas

    ReplyDelete
  35. Im Zeitungsarchiv berichtet der Independent am 2.12. 2009 ueber einen Hiatus der Temperaturentwicklung:

    "In September, this issue was addressed directly by a group of scientists from the Hadley Centre, the UK Met Office's institute for climate prediction and research. Their paper, published in the Bulletin of the American Meteorological Society, was entitled "Do Global Temperature Trends Over the Last Decade Falsify Climate Predictions?" Their conclusion was simple: No. Investigating how often decades with a neutral warming trend occurred in computer-modelled simulations of climate change, they found that despite continued increases in greenhouse gas concentrations, a single-decade hiatus in warming occurred relatively often."

    Der SPIEGEL benutzt den Begriff ab 2013.

    ReplyDelete
  36. Andreas,

    ich weiss, und da bei dieser Einschätzung einige subjektive Entscheidung treffen muss, kann ich diejenigen, die auf höhere Werte kommen, auch verstehen. Ich lege sehr wenig Wert auf Schätzungen, die LGM benutzen. ich denke, die sind sehr unsicher und auch nicht relevant für das heute Klima.

    'Vorsicht, Eduardo, kein Wort an Cook: Mit ihrem Wert bewegen Sie sich an der Grenze, wo man von
    Cook et al. als die 3% bezeichnet wird ;-)'

    Vielleicht, aber mit S=1.6 K . sind 1000 ppm auch nicht gut, und es gibt andere Gründe, Kohle und Öl als Energieträger zu ersetzen. Gerade die Betonung auf dem Klima, macht das ganze schwieriger.

    ReplyDelete
  37. Andreas,

    ich setze auf 6.5°C wenig Geld.
    Nach folgendem Rezept. Fit einer Exponentialfunktion an die Daten seit 1880. Das ergibt periodische Residuen um die Null Linie, passt eigentlich besser als ein linearer Fit, den da ist immer noch ein Trend in den Residuen. Nun gut hat einen Fitparameter mehr.

    Grüße
    Günter

    P.S. Kannst Du meine Frage beantworten, wann man einen Trend starten muss, um das "anthropogene global warming Signal" abzubilden.

    ReplyDelete
  38. @ Günter

    Auf 6,5°C würde ich auch nichts setzen, aber ehrlich gesagt halte ich das nur wenig unwahrscheinlicher als 1,5°C. Mein Tipp: Im nächsten IPCC-Report wird man die untere Grenze wieder anheben.

    Kannst Du meine Frage beantworten, wann man einen Trend starten muss, um das "anthropogene global warming Signal" abzubilden.

    Tamino/Foster ging das ganze recht pragmatisch an: Ab etwa den 70ern ist der Anstieg näherungsweise linear, arbeiten wir da also mit linearer Regression. Zu weit zurück zurückgehen kann man auch schlecht, da das anthropogene Signal im 19. oder Anfang des 20. Jahrhunderts sicherlich schwächer war.
    Was ist mit dem Anstieg bis 1940? Was ist mit der Stagnation bis in die 70er? Was geht auf Aerosole (da gab es auch ein anthropogenes Signal) zurück, was auf nat. Variabilität? Lewis braucht für seine Methode Daten über den OHC. Wie genau sind diese bekannt?

    Kurz: Ich kann die Frage auch nicht beantworten, ich habe da selbst nur Fragen.

    Grüße,
    Andreas

    ReplyDelete
  39. @Andreas

    Das pragmatische Vorgehen von Tamino das Du beschreibst ist dann aber nichts anderes als "cherry picking". Denn Du fittest dann die Daten stückweise mit einer willkürlichen Zerlegung, denn andere Zerlegungen geben keinen substantiell schlechteren Fit.

    Genauso gut kannst Du dann die ganze Temperaturreihe nehmen.

    Der Unterschied in beiden Trends ist ein Faktor 2.5, 0.065°C/Dekade gegen 0.16°C pro Dekade.

    Meiner Meinung nach ist der Hiatus auch deshalb entsahnten, dass man ja zu AR4 - Zeiten manchmal auch willkürlich ab 1990 zerlegt hat. da gab es dann Steigungen von der Größenordnung 0.22, z.b. 1990 - 2006. Da wird dann eine Periode 1998 - 2012 schnell salonfähig.

    ReplyDelete
  40. Verstehe die ganze Aufregung ums Paper nicht..

    Ist doch nichts wirkliches neues dabei, seid Cowtan and Way (2013) ist bekannt, dass der Coverage-Bias den Trend im "Hiatus" (was für mich Blödsinn, da das Klimasystem aus mehr als der Oberflächenahen Temperatur besteht, vergleicht man die Enerigiekapazitäten, kann man eigentlich nur lachen), seid HadSST3 weiß man ebenso um den den Bias der SST zwischen Bojen und Schiffsmessung.

    Also was soll der ganze mediale Aufriss, für etwas was eigentlich schon paar Jahre bekannt ist? Man stelle sich noch vor, GISS hat (wie NCDC) immer noch einer SST-Bias, wird dann wieder ein medialer Aufriss gemacht, wenn GISS im "Hiatus" bald einen stärkeren Trend hat, weil man die SST-Bias-Korrektur vornimmt? Ohne Witz, manchmal frag ich mich wirklich...

    ReplyDelete
  41. Mal eine ganz andere Frage zu dem Thema. Neben den Temperaturprognosen für die kommenden Jahrzehnte, gibt es auch CO2-Szenarien und Vorhersagen. Sprich, man gibt Erwartungen ab, wie sich der CO2-Gehalt der Atmosphäre entwickeln wird. Wie hat sich da die Realität der letzten 15-20 Jahre verhalten? Haben wir heute mehr oder weniger CO2 als man zur Jahrhundertwende und davor vermutet hatte?

    ReplyDelete
  42. Meines Erachtens wurde in HADSST3 die Korrektur zwischen Schiffsdaten und Bojendaten schon vorgenommen. Zumindestens lese ich den IPCC-Bercht so.Weiß da jemand genaueres?

    ReplyDelete
    Replies
    1. Guenther,

      Ist eigentlich ziemlich leicht, einfach in google HadSST3 eingeben, ersten Vorschlag anklicken, dort dann in detailed description anklicken kurz laden lassen und dann den Part "Bias Adjustment" lesen

      Dort steht dann drin, dass der mittlere cooling bias zwischen 0.1 - 0.2K liegt (zwischen Schiff zu Boje)

      Delete
  43. Weiß da jemand genaueres?

    sicher... aber vielleicht nicht ein Zorita oder Hans von Storch, die keine Experten dafür sind.

    Ja, es wurde eine Korrektur vorgenommen, und nun noch mal korrigiert. Sehr schön dargestellt bei realclimate.org. http://www.realclimate.org/index.php/archives/2015/06/noaa-temperature-record-updates-and-the-hiatus/ Interessant ist, dass die Korrekturen den "overall"-Trend reduzieren...

    Ich finde, KOrrekturen auf Basis von Homogenisierungen, Erweiterungen des Datensatzes, Verbesserung der Algorithmen (selten der Fall) sehr wichtig und ein Teil der Forschung. Selten haben diese Korrekturen aber einen großen Einfluss. Kleine Details werden verbessert. Bspw. wenn der Datensatz einen größeres Gebiet auf der Oberfläche überdeckt, war schon immer klar, dass ein bisschen mehr Erwärmung gezeigt würde. "Skeptiker" behaupteten immer das Gegenteil, deswegen das Geschrei. Und das ist das Problem... sie behaupten.

    Hier wurden oft die UAH/RSS genannt. Schöne Produkte, aber gerade UAH hat immer mal wieder riesige Korrekturen vornehmen müssen. Das ist der Nachteil dort. Dort gibt es nur "ein" Messgerät und eine große Abdeckung, aber wenn man diese Messung nicht korrekt interpretiert, ist der Fehler sehr viel größer. Und das sieht man insbesondere bei UAH immer wieder, während das RSS-Produkt stabiler ist. Auch ist die Dokumentation und die Verfügbarkeit der Rohdaten und Source-Code, aus objektiven Gründen (die Rohdaten kann man sicher schwer handeln), sehr viel schlechter als bei NOAA, GISS oder HadCRut. Scheint kein Problem zu sein.

    Best,
    GHB

    ReplyDelete
  44. @shader #42

    Interessante Frage. Die früheste Schätzung, die ich kenne, ist im berühmten Paper von Guy Callendar, 1938. Er extrapoliert vorhandene Messungen linear (0.6 ppm/y) und landet dann bei 396 ppm im Jahr 2100. Er thematisiert diese Annahme (Linearität) gar nicht. Es sollte noch 34 Jahre dauern, bis zum Club of Rome, bis sich die Idee mit dem exponentiellen Ressourcenverbrauch bis zu den Naturwissenschaftlern rumgesprochen hatte.

    ReplyDelete
  45. @Shader

    James Hansen und sein Team hatten 1981 ein Papier mit verschiedenen Szenarien: Climate Impact of Increasing Atmospheric Carbon Dioxide http://www.atmos.washington.edu/~davidc/ATMS211/articles_optional/Hansen81_CO2_Impact.pdf

    Sie gingen dabei von verschiedenen Szenarien aus, abhängig von Energienutzung und Art der Energieerzugung, die im Papier erklärt sind.

    Sie schreiben auch, dass die Änderung des Treibhauseffekts ein faszinierendes Experiment der Menschheit ist... wie wahr, wie wahr. Aber wollen wir das Experiment echt auf die Spitze treiben? Wirklich?

    Best,
    GHB

    ReplyDelete
  46. Um vom technischen nochmal auf das sprachliche zurückzukommen: der Merriam Webster gibt dem hiatus zwei verschiedene Bedeutungen: einmal als einen Unterschied, zum Beispiel dem zwischen einem Parteiprogramm und dessen Umsetzung; und andererseits als Pause: nach einer 5jährigen Pause fing er wieder an zu schreiben.

    Bevor jetzt der Science Artikel das Thema hiatus wieder aktuell machte, habe ich ihn in einem Artikel für das Hamburger Abendblatt als Beispiel genommen, um das Dilemma der Klimaforschung zu illustrieren. Dabei habe ich beide Bedeutungen verwendet. Das liest sich dann so:

    "So ist Klimawandel ein Thema, das viele aufregt, bei dem noch vieles unsicher ist und das stark politisiert ist. Zum Beispiel die Pause der Erderwärmung: Vergleicht man den globalen Temperaturverlauf der vergangenen 15 Jahre mit den Vorhersagen durch Klimamodelle, gibt es einen Unterschied. Sofort stehen die Skeptiker des menschengemachten Klimawandels parat und sehen sich bestätigt. Wissenschaftler hingegen wundern sich, probieren, messen, vergleichen und lassen die neuen Erkenntnisse in die Modelle einfließen, um sie realitätsnäher zu gestalten. Das Problem ist, dass mit diesen Rechenmodellen politische Ziele definiert werden."

    ReplyDelete
  47. @Werner Krauss

    "Das Problem ist, dass mit diesen Rechenmodellen politische Ziele definiert werden."

    werden sie das? Ich denke, das ist nicht 100%ig korrekt. Das 2-Grad-Ziel bspw. ist kein "Rechenmodellziel". Dieses Ziel basiert auf der Vergangenheit. Man braucht kein "Rechenmodell", um den Einfluss der Veränderung der Atmosphäre zu sehen. Klar, man braucht ungefähr eine Bandbreite, was man zu erwarten hat. Und diese Bandbreite hat sich nicht wesentlich verändert in den letzten 30-40 Jahren. Die Aussagen sind mind. seit 3-4 Jahrzehnten stabil, es wird wärmer werden, nur die Indizien, dass die Aussagen richtig sind, werden immer mehr. Jim Hansen schrieb in dem Papier von 1981, Klimawandel wird kommen, hat ein paar positive Einflüsse, ein paar negative. Nun ist vieles klarer, vieles immer noch forschungswert. Aber haben die Änderungen in den "Rechenmodelle" seit Hansen 81 oder Manabe/Wetherald irgendwelche komplett andere Aussagen gebracht? Ich denke, in den globalen Aussagen sind die Änderungen gering. Regional/lokal gibt und gab es bestimmt noch viele Änderungen.

    Es gab auch schon Diskussionen über Klimamodelle (bzw. andere Erkenntnisse): sind sie eine Serviceleistung oder (nicht exklusiv) Wissenschaft bzw. Grundlagenforschung? Grundlagenforschung zeigt eben auch "Überraschende" Änderungen. Serviceleistungen sollten das eher nicht so tun. Diese Diskussion gibt es schon lange. Hm.

    Best,
    GHB

    ReplyDelete
  48. Gibt es eine Meinung zu einem Hiatus an Langzeitmessreihen einzelner Klimastationen? - Hier fällt ja offensichtlich keine Unsicherheit durch räumliche Interpolation oder Beobachtungsmethoden an, dafür aber ein Interpretationsspielraum bez. der regionalen Variabilität?

    ReplyDelete
  49. Wenn unter "hiatus" ein Trend verstanden werden soll, der auffällig niedriger ist als aufgrund von Szenarienrechnugnen zu erwarten, so gelingt dies lokal nicht, weil die Variabilität sehr hoch ist; durch die Mittelbildung für große Gebiete (Kontinente und Globus, verbessert sich die signal-to-noise-ratio, und es wird möglich, sowohl eine Inkonsistenz von solchen Trends mit der Vorgabe eines ungestöörten Klimas (also: Detektion) oder auch mit einem erwarteten anthropogenen wandel (Hiatus) festgestellt wird.

    ReplyDelete
  50. @Hans von Storch
    "...In diesem Zusammenhang solltest Du Dir vielleicht diesen Artikel mal ansehen: Fyfe, J., N. P. Gillett and F. W. Zwiers, 2013: Overestimated global warming over the past 20 years, nature climate change 3, 767-769".
    Mittlerweile sind die Schlussfolgerungen der Studie von Fyfe et al. aber von Risbey et al., Nature Climate Change (2014), doi: 10.1038/NCLIMATE2310 gründlich widerlegt worden.

    ReplyDelete
  51. Eigentlich nicht.

    1) Fyfe et al zeigen 20-Jahre-Trends ,währen Risbey er al 15-Jahre-Trends analysieren.

    2) Die Analyse von Risbey et al. ist statistisch nicht sauber. Der Grund ist, dass sie nachträglich die Modellsimulationen asuwählen, die nach einem gewissen Kriterium am Besten mit den Beobachtungen übereinstimmen. Dieses Kriterium ist der beobachtete ENSO-Zyklus. Diese Vorauswahl der Simulationen verfälscht aber den statistsichen Test. Es ist also nicht überraschend, dass dieser Untersatz der Simulationen die Beobachtungen besser wiedergeben: sie sind eben deswegen ausgewählt worden

    ReplyDelete
  52. Eduardo, this comment appears very misleading to me.

    1) 15 vs. 20 y trend. If you think this makes a difference with respect to the underlying question ("How good good are the models w.r.t. gobal avg. temp?"), then both methods are ridiculously fragile and should not have been published in their current form.

    2) Both papers need to deal with a general problem. I.e., climate models do not forecast decadal variability and "a single observed realization [of a 15y trend] lying in the tail of the model ensemble provides no more evidence against the model forecast than a single observed realization lying on the ensemble median" (Risbey, et al.).

    Risbey et al. do that by pretending all relevant internal variability is ENSO-related and select those models where the trend of an ENSO-index matches obs. The problem with this approach is that ENSO index and T_global are highly correlated (with a 1-y or so lag). Or it is not a problem. I don't know. The answer is related to whether the proposed weaknesses of the models are independent of their modelled Nino3.4 - index. I am still about to hear a description of the proposed model-weaknesses (from the "look the hiatus shows models are bad" - crowd) that would be precise enough to answer such questions.

    The issue here is certainly not that Risbey et al's "test is flawed" or "stats are not correct" and that their results are "trivially non-surprising" as you like to ridicule that paper.

    Fyfe et al. deal with the problem differently, they remove the ENSO signal in T glob. avg. by a statistical model that includes some physics. And consequently some of ad-hoc estimates. Whether that method is suited for the problem at hand is also completely unclear to me, and the authors don't even seem to mention that question.

    Stating, without further elaboration, that "of course" [Fyfe | Risbey] is wrong and ["the models are flawed" |"the models are ok"] is the privilege of the climate ball player. A scientist would try to figure out the cause of the discrepancy.

    ReplyDelete
  53. hvv,



    The comment by Grüne stated that the paper by Risbey et al. had superseded the conclusions obtained by Fyfe et al, and I wrote that this is not quite true, I explained my reasons, which I think are valid. So I do not see why my comments could be misleading. Actually, I also think that you interpretations of both papers are not correct.

    To look at 15-year or 20-year does make a difference. For instance, the probability to find in the CMIP5 scenarios a trend smaller than the observed 1998-2012 diminishes with the segment length. For 15 years it is 0.8%, for 20 years it is zero.

    This also related to your comment 2 ' "a single observed realization [of a 15y trend] lying in the tail of the model ensemble provides no more evidence against the model forecast than a single observed realization lying on the ensemble median.
    I think this arguable. Imagine I am comparing one measurement of my level of blood sugar against a sample of 200 healthy persons, and my level is outside that range. should I be worried ? Should I be worried if only one person is beyond my level ? According to your interpretation, not at all. To find one person beyond my level is the same as finding myself in the middle of the pack. My guess is, however, that most people in that situation would be worried. It is not a proof, but it is an indication. But Fyfe et al never presented this as a proof of anything, they just presented the statistical analysis. What is wrong is to think that Risbey et al superseded the Fyfe et al paper with a flawed statistical analysis.

    'The answer is related to whether the proposed weaknesses of the models are independent of their modelled Nino3.4 - index'

    No, this is not the point. The point is that Risbey et al preselect the models that better match one aspect of the observations In that setting, I insist that it is not surprising that the preselected ensemble is closer to the observations- it has been preselected exactly to do that.

    'Fyfe et al. deal with the problem differently, they remove the ENSO signal in T glob#
    No, Fyfe et al explore in the second part of their study what are the effects of the removing the ENSO and volcanic signal. But this is not the main result (ehem, speaking of misleading the reader). Their main result is that the observed trend is at the fringes of the model ensemble, without any preselection or correction. The analysis is therefore much cleaner.

    ReplyDelete
  54. Eduardo,

    Ich denke, dass deine Darstellung dessen, was Risbey et al. gemacht haben, nicht korrekt ist. Du stellst es so dar, als haetten Risbey et al. einen statistischen Zirkelschluss praesentiert. Dass sie fuer ihre Statistik bereits das vorausgesetzt haetten, was sie dann herausbekommen haetten. Du schreibst zu der Studie, "... dass sie nachträglich die Modellsimulationen asuwählen, die nach einem gewissen Kriterium am Besten mit den Beobachtungen übereinstimmen ... Es ist also nicht überraschend, dass dieser Untersatz der Simulationen die Beobachtungen besser wiedergeben: sie sind eben deswegen ausgewählt worden", als wenn das Kriterium fuer das Bilden der Komposits der Simulationsdaten die beste Uebereinstimmung mit den beoachteten globalen 15-Jahre-trends gewesen waere. Das ist aber nicht das, was Risbey et al. gemacht haben. Die Auswahl erfolgte tatsaechlich bzgl. der Uebereinstimmung der ENSO-Phasen, basierend auf den Temperaturtrends lediglich in der NINO3.4-Region im Pazifik. Dass dann auch eine beste Uebereinstimmung mit den globalen 15-Jahre-trends herauskommt, ist damit aber in der Analyse nicht bereits vorausgesetzt. Ich sehe nicht, wo in der Risbey et al.-Studie der von dir behauptete statistische Zirkelschluss sein soll.

    Die Ergebnisse der Risbey et al. Studie unterstuetzen aber das Argument, dass globale 15-Jahre-trends wesentlich durch die ENSO-Variabilitaet im Pazifik bestimmt werden, bei der es sich um unforcierte interne Variabilitaet im System handelt. Und dass 15-Jahre nicht ausreichend sind, um irgendwelche Schlussfolgerungen zum background trend durch die anthropogen verursachten globalen Erwaermung zu ziehen. Das Ergebnis der Risbey et al.-Studie waere nur dann zirkelschluessig, wenn es zwingend aus den Voraussetzungen der angewendeten Methodik folgen wuerde. Tut es aber nicht.

    Wenn es tatsaechlich einen signikanten bias in den simulierten globalen background trends der Temperatur im Vergleich zur realen Welt gaebe, dann muesste dieser bias auch dann sichtbar werden, wenn die Simulationendaten und die Beoachtungen bzgl. der ENSO-Variabilitaet ideal in Phase sind. Das Ergebnis der Risbey et al. Studie ist aber, dass fuer die Komposits der Simulationsdaten mit uebereinstimmender ENSO-Phase, im Vergleich zur realen Welt, kein signifikanter bias zu sehen ist, waehrend fuer die Komposits der Simulationsdaten mit maximal phasenverschobenen ENSO, im Vergleich zur realen Welt, eine Diskrepanz ensteht.

    Zur Fyfe et al.-Studie schreibst du, dass diese 20-Jahre-Trends analysieren wuerden, waehrend Risbey et al. 15-Jahre-Trends untersuchen wuerden. Das ist so auch nicht voellig korrekt. Die Fyfe et al.-Studie analysiert beides, sowohl 20-Jahre-Trends als auch 15-Jahre-Trends. Ein Ergebnis der Fyfe et al.-Studie ist, dass der Einfluss der ENSO-Variabilitaet auf die Temperaturtrends nahezu Null waere, selbst fuer die Periode 1998-2012. Die angebliche Ueberschaetzung der globalen Erwaermung in den Modellsimulationen, die von der Fyfe et al.-Studie behauptet wird, ist wesentlich ein Ergebnis des laut dieser Studie angeblich vernachlaessigbaren Einflusses der ENSO-Variabilitaet auf den beobachteten Temperaturtrend. Ich sehe nicht, wie dieses Ergebnis fuer die beobachtete zeitlichen Verteilung von El Ninos and La Ninas von 1998-2012 korrekt sein kann, wenn das Ergebnis der Risbey et al.-Studie korrekt ist, dass die ENSO-Variabilitaet so einen starken Einfluss auf 15-Jahre-Trends haette.

    ReplyDelete
  55. Eduardo,

    first, sorry for my last sentence. I did not mean to imply you were not a scientist. I know you are, a good one. Just sometimes it seems that hat slides off a bit, when commenting ...

    I think your blood sugar analogy is wrong. Just because a test is involved in two problems it doesn't mean they are analogous. Maybe an analogy I think is better helps: Imagine you have a model of a fair dice that predicts a probability of 0.463 % for three sixes in a row at any fixed point in time. You start rolling the dice: 3 x 6 after three throws! Do you conclude your model is wrong? Should you favour one that predicts a higher probability for that event?

    ["pre-selection", "misleading the reader"]
    Fyfe et al. just seem to ignore ENSO induced T trends in the first part of the paper. That is not very meaningful. It's like I compare my weight with the global average of all humans. And conclude I am surely dead. If I "pre-select" for comparison the subgroup of people with my height, age and gender that still doesn't look perfect, but it should give a better indication of my health, don't you think? Fyfe et al. deal with that omission in the second part, so it is just fair to compare this amended method.

    That they still get the same result, which very much contradicts that of Risbey et al., in my mind needs to be examined. One of them must be wrong just as
    Jan P Perlwitz explained more in detail.

    ["Not the point"]
    One possibility of Risbey's result being compromised is that their selection at the same time selects models that exhibit an increasing probability of extended La Nina conditions, lower TCS, through a mechanism that transports heat into the deep ocean, which is driven by continued global warming. And the other models are biased because they don't get that mechanism. Interestingly I did not hear this hypothesis from the "hiatus shows models are wrong" - crowd, Quite the opposite.




    ReplyDelete
  56. hvv, Jan

    I agree with you that the analysis of Fyfe et al is just a statement about the position of the observed trend in the 'distribution' of the simulated trends, and that this position ' at the fringes' can be due to chance. We have already discussed this in the Klimazwiebel before. This (statistical) study cannot definitively conclude that the observations are incompatible with the ensemble.

    However, allow me an aside to this point. This argument has been used very often before. For instance the last decade is the warmest since records began, the year 1998 year was the warmest in the past millennium, the trend in the 20th century is unprecedented in the Holocene, etc. All this arguments, when based solely on statistical grounds, are of the same type: one measurement confronted to a distribution. One may argue that one measurement (the 20th trend) can also be at the 99% quantile of the distribution by chance). These arguments gain traction only accompanied by a a priori (and not a posteriori) physical interpretation and explanation. Unfortunately, we have in climate too many a posterior explanations, some of them incompatible, and even explanation of non-observations ( if for instance the hiatus according to Nasa actually did not happen). What we need are a priori predictions. But this is another story.

    What we are discussing here is whether or nor Risbey et refute Fyfe et al. Risbey et al purportedly factor in the influence of ENSO. The relative impact of ENSO variability on the long term trend should be weaker on 20-year timescales, but Risbey et al , in contrast to Fyfe et al, do not look at 20-year trends. That was one of my points that the assertion by Grüne is not quite right.
    Again, Risbey et al selects from the ensemble the simulations that fit the observed ENSO cycle. But ENSO is highly correlated with the global temperature, so indirectly, they are selecting the simulations that show, for instance, the right number of observed El Niños and La Niñas, and then the selected simulations are closer to the observations. It would be very surprising if they difference to observations become larger. This may indicate that ENSO is the driver of the hiatus, but not necessarily. By preselecting the simulations, one biases the sub-ensemble towards observations for the right or for the wrong reason. I may have chosen to preselect the simulations towards those that better reproduce the observed decadal variability, or 15 year variability- whatever this is -instead of ENSO and voila the trends of the subsample approach the observed value.

    Your example with your weight is not applicable, because Risbey et al. are selecting the simulations directly according to the simulated temperature - yes, in the Tropical Pacific, but this is a very large area . Imagine you would select your population not by your gender and your age, but by the weight of your arms. You could even weight 200 kg and find yourself comfortably in the middle of the population. This is the right analogy.

    ReplyDelete
  57. Another interesting example that just came to my mind.
    One of the tricks employed by the hated finance industry and evil banks to ensnare wealthy clients is the following. Instead of setting up an investment fund for say 100 mill, the set up 100 funds for one million each. Then they manage these 100 funds with different investment strategies, or may be at random, over a few years. After that, they print a nice prospectus of the one single fund that had the highest return over the past years. The other funds are 'forgotten' under the rug. Of course, this 'high performing fund' has been selected a posteriori and does not prove any investment skill. But the clients see only those nice results and buy.

    This is why now, financial institutions are bound to publish the performance of all their funds, and not only of the ones with highest returns.

    ReplyDelete
  58. Eduardo,

    I very much share your sentiment about over-interpretation of purely statistical studies. many of these are being presented as "proving" or "refuting" something, when in my mind it's just exploratory work. On the other hand, the (physical) "a posteriori" explanations from last decade are the current "a priori explanations", aka "predictions". It is a good thing to have many, also contradicting, hypothesis about past phenomena -- that is how science progresses.

    [Risbey's selection]
    We have a serious disagreement here.

    "Risbey et al. are selecting the simulations directly according to the simulated temperature - yes, in the Tropical Pacific, but this is a very large area ."

    If the back of my envelope is in working order, that area is about 1% of the Earth's surface and direct impact of the index alone is an order of magnitude too small to explain T_glob trends.

    "By preselecting the simulations, one biases the sub-ensemble towards observations for the right or for the wrong reason."

    This is maybe at the heart of the matter. If you have reason to believe that the selected models stand out in any other relevant way from the ensemble, e.g. that they generally predict lower T_glob trends, then you were right, "wrong reasons". But that is not the case, right?

    Maybe this helps me understand your point:
    Imagine that this was not a multi-model ensemble but rather an initial condition ensemble of only one model. Would such a selection still invalidate the study, in your understanding?

    ReplyDelete
  59. Hallo,

    Eigentlich wollte ich mich hier nicht mehr einmischen … aaaaber, Herr Von Storch hatte vor einiger Zeit einmal verkündet, dass er, würde die Pause länger anhalten, die aktuelle Global-Warming-Theorie wohl grundsätzlich überdenken müsste.

    Die Herren Von Storch und Zorita waren für mich immer der Inbegriff des „Honest Borkers“, weshalb ich trotz des m.E. katastrophenlastigen Blogs (vor allem der Kommentatoren) noch einmal nachhaken will.
    Ich will aber voraussschicken:

    1) Sollte sich die globale Temperatur in den nächsten Jahren-Jahrzehnten wieder stark erhöhen, wäre ich der erste der seine skeptische Haltung aufgeben würde, hoffe ich wenigstens.

    2) Sollte sich die Temperatur ein klein wenig über einen längeren Zeitraum oder etwas mehr über einen sehr kurzen Zeitraum erhöhen, würde ich meine skeptische Sichtweise noch beibehalten.

    Nun ist meine Fragen an die Herren Von Storch und Zorita:

    a) Falls die obige Theorie, dass es den Hiatus (Pause) nicht gibt richtig ist, müsste man dann nicht die Globale Erwärmung der letzten 100 Jahre trotzdem reduzieren? Immerhin ist sie nicht so schnell angestiegen wie vorher behauptet.

    b) Falls die obige Theorie nur eine Theorie unter vielen ist, und noch keinesfalls bewiesen, müsste man dann nicht ganz einfach noch einmal mindestens 10 Jahre abwarten? Immerhin ist es für uns Laien kaum verständlich, dass diese Alternativtheorien immer wie Pilze aus dem Boden sprießen sobald sich der böse Laie des gesunden Menschenverstandes bemächtigt.

    c) Kürzlich las ich einmal dass der Pinatuboausbruch die Erwärmung deutlich gedämpft hätte. Ebenso las ich dass die Luftverschmutzung in der 2ten Hälfte des 20ten Jahrhunderts die Erwärmung gebremst hätte. Ich hatte eine solche Vermutung vor längerer Zeit einmal gewagt in einem Forum zu äußern und wurde sehr heftig dafür angegriffen und zwar von sogenannten „Alarmisten“.

    Meine Frage dazu wäre, in Anbetracht der Tatsache dass man diese erbärmlichen Angriffe auf Laien und ihren gesunden Menschenverstand, so wie den Alarmismus jahrelang hingenommen hat, um jetzt bei jeder „guten“ Nachricht in Richtung Alarmismus wieder lautstark zu jubeln, warum man solche kleine Hinweise in Richtung „Alarmismus“ ernst nimmt, wogegen man den großen Hinweis „Hiatus“ in Richtung „Zweifel am Alarmismus“ partout nicht wahrhaben will. Immerhin fällt die ganze Theorie einer katastrophalen Erwärmung doch mit dem Wegfall ebendieser?

    Vor zwei Jahren sah es fast so aus, als hätte sich die Klimawissenschaft auf den Aspekt „Wissenschaft“ zurückbesonnen und würde den Aspekt „Aktivismus“ aus ihren Reihen verbannen. Jetzt sieht es wieder so aus als wäre auch noch die klitzekleinste Erwärmung oder der leiseste Zweifel am „Hiatus“ ein Grund zu jubeln und die Zweifler wieder mit Fug und Recht zu diffamieren.

    Eine Aufarbeitung unrühmlicher Auswüchse des Wissenschaftsbetriebs sieht für mich deutlich anders aus. Allein eine Diskussion um die Definition des Begriffs „Hiatus“ verrät viel über die Beweggründe einiger Leute die hier ihre Meinung äußern.

    Und Sorry für das nochmalige Posten, nachdem ich mich endgültig verabschiedet hatte. Es tut einfach weh, wenn man sieht dass die Wissenschaft seit Jahren so schändlich missbraucht wird.

    MfG
    Yeph

    ReplyDelete
  60. @Eduardo
    Danke für Ihre interessanten Kommentare. Wenn aber die Schlussfolgerungen der Studie von Fyfe et al. von Risbey et al. nicht widerlegt worden wären, würde es heißen, dass die Kernaussagen von Fyfe et al. stimmen. Zum Beispiel: „…The inconsistency between observed and simulated global warming is even more striking for temperature trends computed over the past fifteen years (1998–2012). For this period, the observed trend of 0.05 ± 0.08 °C per decade is more than four times smaller than the average simulated trend of 0.21 ± 0.03 °C per decade (Fig. 1b)”. Dann hätten wir aber eine erhebliche Diskrepanz zwischen den Voraussagen der Klimamodelle und den Beobachtungen. Diese Behauptung hat aber keine substantielle wissenschaftliche Basis. Alle vorhandenen Messdaten stimmen mit den Ergebnissen der Klimamodelle ziemlich genau überein, es gibt keine statistisch signifikanten Differenzen. Genau das meint Jan P. Perlwitz, wenn er von „der angeblichen Überschätzung der globalen Erwärmung in den Modellsimulationen“ spricht.

    ReplyDelete
  61. Grüne

    but your arguments are circular. You argue that Fyfe et al shows a discrepancy between models and observations. However, according to you models and observations do not disagree. Therefore Fyfe et al. must be wrong. Well, Fyfe et al is disgreeing with your belief. It does not mean thay are wrong. Perhaps your belief is wrong

    However, in your argument you are mixing two different things:

    'Alle vorhandenen Messdaten stimmen mit den Ergebnissen der Klimamodelle ziemlich
    genau überein, es gibt keine statistisch signifikanten Differenzen'

    I think you mean that there is no statistical diference between the observed trend in 1998-2015 and in the previous period, which is arguable but may be true.

    Unfortunately (and I mean it), there are huge difference between models and observations. Fyfe et al shows the differences in the trends, which thy claim is statistically significant , although we have discussed in this tread what this could actually mean. Not clear yet, and it can be argued that this may be due to random variability, or that they are real.

    However, the simulated mean near-surface air temperature (not trends, just the global annual mean, which in the observations is about 14 C) ,is for many models off by 1 or 2 degree Celsius. In other words, many models show a systematic error that is comparable to the 2 C limit. This is a huge error, as you can see that for instance
    in this figure taken from here

    ReplyDelete
  62. "many models show a systematic error that is comparable to the 2 C limit."

    I am struggling with the same problem when comparing model runs of global food market models. The fallback is that you only compare the deviations from the each model's baseline across models. The same is done, I guess, in climate model intercomparisons.

    Are differing world temperature averages that models work with really a problem, and to what extent?

    ReplyDelete
  63. Eduardo,

    If you think that the Fyfe et al. provides valid evidence for a significant overestimation of the global surface warming in the CMIP5 climate simulation compared to the real world warming trend how can your arguments regarding the Risbey et al. study about the supposedly circular statistics in that study be valid? Regarding latter, you use the argument of the strong correlation between ENSO variability and the globally averaged surface temperature anomaly on a 15-year time scale to assert a circularity in Risbey et al.'s statistical approach. However, according to the Fyfe et al. study, the influence of the ENSO variability on the temperature trend was supposedly nearly Zero, even for the period 1998-2012. The contribution of ENSO variability, and whether this part is correctly represented in the Fyfe et al. study, is very likely crucial for the results from this study, and whether there really is an overestimation of the global surface warming trend in the CMIP5 simulations. If you think the Fyfe et al. study is likely right you consequently will have to accept a negligible correlation between ENSO and global surface temperature anomaly on the 15-year time scale. But then your argument regarding the Risbey et al. study can't be valid. You can't have it both. If you want it both you will hold two logically contradicting positions at the same time.

    ReplyDelete
  64. @Edaurdo, @Jan
    Thank you for your interesting comments.
    I think that Jan means “The Law of Excluded Middle” when he writes: “If you want it both you will hold two logically contradicting positions at the same time”. According to this law “(p and (not p))” is false, where p is a logical expression. The figure Eduardo points to shows that there are vast differences between (some) climate models (or their different runs due to different physical parameterization?) and (some?) observations. Since the Law of Excluded Middle does not say that “p and (not q)” is necessarily false, if p is not equal to q, I understand that Jan means that Fyfe et al. and Risbery et al. considered the same runs of the same models and compared them to the same observations (i.e. data sets?). If so, my question would be: is this contradiction well known or has been discovered for the first time in this blog? Both papers appeared in Nature Climate Change and (I suppose) were peer-reviewed. And nobody has noticed the contradiction? The authors of the paper “Overestimated global warming over the past 20 years” are not nobodies. Jon Fyfe was a lead author for the AR4, Nathan Gillett was a lead author for the AR5 Chapter 9, Francis Zwiers was Vice Chair for WG1 of AR5.
    But should the papers under discussion consider different things and they do not contradict each other then I would have to admit that my previous comment “die Schlussfolgerungen der Studie von Fyfe et al. (sind) aber von Risbey et al., Nature Climate Change (2014), doi: 10.1038/NCLIMATE2310 gründlich widerlegt worden” is plainly wrong.

    ReplyDelete