Wednesday, August 17, 2011

Peter Braun: Einwurf von ganz weit draußen

  
Sehr geehrter Herr Prof. von Storch,


mit großem Interesse habe ich Ihr Interview mit Herrn Prof. Zorita gelesen.

Obwohl ich schon lange nicht mehr aktiv im Metier tätig bin, bewegen mich die grundsätzlichen Fragen dieser Modellierung bis heute und deshalb erlaube ich mir, Ihnen meine Erfahrungen und meinen prinzipiellen Standpunkt zur Modellierung komplexer Prozesse (vornehmlich im Umweltbereich) darzulegen. Meine persönlichen Erfahrungen erstrecken sich zwar hauptsächlich auf die Modellierung hydrologischer und limnologischer Prozesse – es ist aber evident, daß die abgehandelten Gesichtspunkte auch auf die (noch viel komplexeren) Klimamodelle zutreffen. Herr Zorita sprach in dem Interview davon, daß die Gefahr besteht, daß „man sich in das eigene Modell verliebt“. Wir wissen es alle – manchmal macht Liebe blind, weswegen es gewiß nicht schaden kann, sich an einige ernüchternde Wahrheiten zu erinnern. Überhaupt: Einmal inne halten und die Grundlagen des eigenen Tuns kritisch reflektieren – das tut der wissenschaftlichen Erkenntnis gut und eröffnet mitunter neue Einsichten.



Die zu beschreibenden Prozesse sind hochgradig nichtlinear verkoppelt – ich bin immer wieder erstaunt, mit welcher Lässigkeit die damit verbundenen Probleme behandelt (bzw. ignoriert) werden. Neben vielen anderen Dingen, wie z. B. schlechte Vorhersagbarkeit, ist vor allem daran zu erinnern, daß die inhärenten Nichtlinearitäten emergente Phänomene evozieren können, die ausgesprochen kontraintuitiv sind und den Modellierer bei dem Versuch, den realen (oder vermuteten) Kausalnexus mathematisch nachzubilden, vor erhebliche Probleme stellt – man denke nur an die lästigen Bifurkationen, von noch Schlimmerem, nämlich dem chaotischen Systemverhalten, ganz zu schweigen.

1) Ich halte diese Nichtlinearitäten beim heutigen Stande der Forschung für eine prinzipielle Erkenntnisschranke. Bekanntlich gibt es für nichtlineare Systeme i. allg. keinen Existenz – und Eindeutigkeitssatz der Lösungen. Die Diskretisierung und die anschließende Numerik zur Gewinnung von „Lösungen“ der PDF´s ist zwar technisch hoch entwickelt (obwohl es da auch noch einiges anzumerken gäbe), man übersieht aber leider nur all zu oft, daß man es mit Modellen deskriptiven (konzeptionellen) Charakters zu tun hat, denen eines sicher fehlt : Mathematische Stringenz im Sinne der fundamentalen Gesetze der Theoretischen Physik (Symmetrien, Extremalprinzipien, Wirkungsfunktionale ….). Es ist eine schlichte Tatsache (und wird ebenso oft verdrängt), daß die „Flußgleichungen“ (dynamische Gleichungen) z. B. nicht aus einem Extremalprinzip hergeleitet werden können (was in der Grundlagenphysik bekanntlich die Regel ist und die daraus abzuleitenden Schlüsse absolut zwingend machen). Das bedeutet auch, daß „unsere“ Modelle vieles beschreiben, aber wenig erklären können.
2) Die „Linken Seiten“ der PDF´s sind zwar mathematisch plausibel begründete differentielle Formulierungen von Erhaltungssätzen (Kontinuitätsgleichungen) für Konzentrationen , Masse, Impuls, Energie usw. – die „Rechten Seiten“  sind aber sehr „weiche“ Beschreibungen von Quell – und Senkenprozessen, die oftmals nur empirisch (statistisch) abgeleitet werden. Oftmals werden sie auch nur als „Restgrößen“ der differentiellen Bilanzgleichungen formuliert – aus Mangel an direkten Meßmöglichkeiten. Die mathematisch korrekte Formulierung der differentiellen Identitäten auf den „linken Seiten“ der PDF´s führt nach meiner Erfahrung manchmal zu dem irreführenden Schluß, man habe es mit „physikalisch begründeten Modellen“ zu tun.
3) Allein die Tatsache, daß man es in der Hydrologie und in der Limnologie mit zahlreichen, z. T. sehr unterschiedlichen Modellen zur Lösung derselben Aufgaben zu hat, ist doch ein klarere Hinweis darauf, daß es bis dato keinen verbindlichen validen theoretischen Deutungsrahmen gibt. In den bekannten Modellen sind es insbesondere die „Rechten Seiten“, die fast ausschließlich empirisch (oder bestenfalls halbempirisch im Sinne von „Grey Boxes“) die wesentlichen Prozesse codieren (Evapotranspiration, Versickerung, Abflußkonzentration, Bodenwasserhaushalt usw.). Es scheint mir, daß die Situation bei den „Klimamodellen“ ähnlich ist, nur daß hier wegen der dramatisch anstiegenden Zahl relevanter Prozesse und Zustansgrößen die Probleme noch größer sein dürften.
4) Eine ganz prinzipielle Schwierigkeit ist die Diskretisierung der Parameterfelder (Regionalisierung). Obwohl die qualitative Attributierung von Oberflächendaten in einem großen Einzugsgebiet (typischerweise mehrere tausend qkm2) dank moderner Satellitentechnik wesentlich erleichtert wurde, ist die anschließende Zuordnung zu quantitativen Parametern bis heute reine Empirie. Die Übertragung von Befunden an Modellflächen schafft keine wirkliche Abhilfe: Es wurden zwar große Anstrengungen in dieser Richtung unternommen (Lysimeterversuche, Modellgebiete usw.) – das Grundproblem der Übertragung von Gebietskennwerten ist damit natürlich nicht gelöst, sondern nur heuristisch entschärft (und gegenüber evtl. Auftraggebern „scheinobjektiviert“).  
5) Ich fand (leider nicht publiziert), daß die Diskretisierungen relevanter Parameterfelder nach einem Potenzgesetz skalieren. Leider ist es ja in den meisten Fällen so, daß man bei Parameterfeldern die Maschenweite des Diskretisierungsfeldes nich beliebig variieren kann (Meßaufwand, Kosten …). Es wäre deshalb zu schön gewesen, auf Grund gefundener Selbstähnlichkeiten die Maschenweite des Parameterfeldes situationsadäquat anpassen zu können. Leider galten für jeden Parameter unterschiedliche Skalenexponenten, so daß das Auffinden einer „optimalen“ Maschenweite für die räumliche Diskretisierung eines Modells aussichtslos war. Die simulierte Dynamik hing dann auch tatsächlich von der Diskretisierung ab  - ein hübsches Beispiel für „Numerische Dispersion“, an die nur in den wenigsten Fällen gedacht wird (leider meine Beobachtung). Ich bin bis heute neugierig, einmal Outputs von Klimamodellen als Funktion der räumlichen Diskretisierung zu sehen (wobei ich „nur“ die Oberflächenparamter im Auge hätte, die vertikale Schichtung der Modelle dürfte unter Skalierungsgesichtspunkten ohnehin ein ganz eigenes Thema sein).
6) Die explosionsartige Verbreitung geradezu abenteuerlich komplexer Modellkonstrukte  korreliert eher mit der verfügbaren Hardware als mit der gewachsenen Einsicht und physikalischen Begründbarkeit der Prozeßbeschreibungen. Mitunter sind weniger komplexe Beschreibungen (geringere Zahl der Zustandsgrößen), gemessen an bestimmten „Güteparametern“, z. B. quadratische Abstandsnormen) „besser“ als die komplexer „Modelle“ (die manchmal sehr „gestöpselt“ wirken).
7) Kurz: Von objektivierbaren, mathematisch stringenten Modellen sind wir himmelweit entfernt!

Um nicht falsch verstanden zu werden: Die Modelle sind auch in meinen Augen ein mächtiges Hilfsmittel zur Beschreibung komplexer realer Zusammenhänge. Sie codieren in einer effizienten Sprache (der Mathematik) diejenigen Teile unseres Wissens, die irgendwie quantifizierbar sind. Allerdings sollte uns immer klar sein, daß dies keine Modelle sind, deren Stringenz aus übergeordneten physikalischen Prinzipien deduktiv folgt, sondern zum gut Teil der Erfahrung geschuldet ist, welche Prozeßbeschreibung zu welcher Fragestellung wohl am besten „paßt“.

Zusammengefaßt ergibt sich:

a) Eine vollständige Abbildung des realen Kausalnexus ist bei unserem heutigen Wissenstand nicht möglich – vor allem wg. der inhärenten massiven Nichtlinearitäten und der großen Komplexität der wechselwirkenden Prozesse
b) Trotzdem liegt der Wert der Modelle vor allem darin, daß man auch nichtlineare (kontraintuitive) Zusammenhänge darstellen kann und sie für andere nachvollziehbar (transparent) macht – in diesem Sinne ein schwaches Maß der Objektivierbarkeit liefert. Die Modelle codieren das Sachwissen über die involvierten Prozesse nach dem neuesten Erkenntnisstand (wenn sie gut sind) – sie sind sowohl kritisierbar als auch verbesserungsfähig – sofern wirklich bessere Prozeßkenntnisse (und nicht nur neuere Formulierungen bekannter Prozeßbeschreibungen) vorliegen.
c) Lösungen dieser Modelle liefern „Anhaltspunkte“ für das, was in komplexen nichtlinearen Systemen „passieren“ könnte, nicht aber eine Antizipation der Zukunft! Es sind lediglich „Intelligenzverstärker“, weil unser (weithin linear funktionierendes Gehirn) hochgradig nichtlinear vernetzte Zusammenhänge so gut wie gar nicht erfassen kann.
d) Bei Modellen mit biochemischem oder  limnologischen Hintergrund werden die Dinge um Größenordnungen komplizierter: Wie bildet man biologische Sachverhalte (Adaption, Auslese durch Konkurrenz, mehrdimensionale Abhängigkeiten der Wachstumsraten beteiligter Spezies, evolutiv herausgebildete emergente „ökologische Nischen“) adäquat ab? Die am Markt befindlichen Räuber – Beute – Modelle sind zwar plausibel , aber für subtile evolutive Leistungen der Biozönose viel zu primitiv (es gibt bis heute kein einleuchtendes Extremalprinzip für diese Evolution, wenn es das überhaupt geben sollte: Wenn ja, dann wäre das Zielfunktional wahrscheinlich mehrdimensional und durch wechselseitige Beeinflussung der Zielgrößen gekennzeichnet).

Na, soviel dazu. Ein weiteres, bestimmt genau so wichtiges Problem ist die Statistik der Phänomene (wenn man sie denn schon nicht kausal beschreiben kann). Am Anfang dieser Betrachtung möchte ich eine gehässige Frage stellen: Wie „breit“ muß ich ein Beobachtungsfenster auf einer Zeitreihe „machen“, um einen „Trend“ zu detektieren (womöglich noch einen, der in mein Weltbild paßt?).

Es ist – dank der Arbeiten von Armin Bunde in Giessen - absolut klar, daß sowohl meteorologische als auch hydrologische Zeitreihen langzeitkorreliert sind. Dies hat für die Verteilungsmuster dieser Zufallsprozesse tiefgreifende Konsequenzen – einen Punkt, den ich hier aus Platzgründen aussparen möchte. Im Zusammenhang mit der Trenddetektion entsteht aber die grundlegende Frage: Wie kann man (extern induzierte) „Trends“ von zufälligen (intrinsischen) Langzeitkorrelationen unterscheiden? Diese Frage ist deshalb so bedeutungsvoll, weil Langzeitkorrelationen einen „Trend“ imitieren, der keine reale externe Ursache hat! Erst jüngst ist es dieser Gruppe gelungen, ein statistisches Verfahren zur Detektion von „Trends“ bei gleichzeitigem Vorliegen von Langzeitkorrelationen auszuarbeiten (Klimadaten, Abflußzeitreihen). Ein Kontrapunkt gegen so manche „gestöpselte Bedarfsstatistik“, wie man sie bei Klimadebatten öfter findet.

Die größte Gefahr liegt allerdings in der aktiven Rolle der Politik im „Klimageschäft“. Dort haben heute „Religionsstifter“ die Meinungsführerschaft übernommen, eine Situation, die mich an Lyssenkow (Stalins Hofwissenschftler), aber auch die Inquisition erinnert: Die „Häretiker“ behalten heute zwar ihren Kopf auf der Schulter, werden aber mit sehr wirksamen Methoden aus dem Nest geworfen. Man verweigert ihnen einfach die Finanzierung. Es genügt nur ein oberflächlicher Blick in die Wissenschaftsgeschichte, daß dies allemal eine sehr mißliche, der Erkenntnisfindung höchst abträgliche Situation ist. Ich hoffe gezeigt zu haben, daß die Probleme, mit denen man bei der Modellierung komplexer nichtlinearer Systeme konfrontiert wird, so schwierig sind, daß es zu deren Lösung nur eine vernünftige Strategie geben kann: Angestrengte, kooperative Arbeit unterschiedlicher Disziplinen – flankiert von einer gehörigen Portion kritischer Selbstreflexion, um die Bodenhaftung nicht zu verlieren! Die Politik hat gewiß eminent wichtige Aufgaben (vor allem jetzt) – die Festlegung der Wissenschaftsagenda in der Umweltforschung gehört bestimmt nicht dazu!

Peter Braun
Potsdam


19 comments:

Marcus said...

Der Autor hat sein offenkundiges Ziel mitzuteilen, dass er sich mit nichtlinearen Systemen voll gut auskennt in konziser und *stringenter* Sprache konsequent verfolgt und erreicht. Auch wenn es sicher notwendig ist den Modellierern dauernd mitzuteilen dass Modelle Grenzen haben, sie vergessen das sicher alle 5 Minuten, irritiert ein wenig das "Klimamodelle" in Gaensefuesschen stehen muss... hoffentlich ist das nicht so wie frueher bei der grossen Zeitung und der "DDR".

Nichtlineare Bewegungsgleichungen, Kopplungen, Dissipation etc. schliesst nicht aus dass ein System Zustandsgroessen hat die verstaendlichen Zusammenhaengen unterliegen. Zu diesem Thema darf ich einen Artikel aus dem genialen Blog von Isaac Held empfehlen

http://www.gfdl.noaa.gov/blog/isaac-held/2011/04/27/9-summer-is-warmer-than-winter/

lg
Marcus

P Gosselin said...

And all that from Potsdam!

P Gosselin said...

I'd be very interested in an English version of this text, should anyone produce one.

Hans von Storch said...

Macrus/1.

Ich denke, es geht nicht darum, "... den Modellierern dauernd mitzuteilen dass Modelle Grenzen haben...". Die meisten Modelleure wissen um diese Fragen, aber viele Nutzer von Modellen wissen es nicht; insbesondere wissen viele, auch gerade Mathematiker, nicht, dass es "die Differentialgleichungen" nicht gibt, sondern nur je nach Auflösung geeignet physikalisch motivierte, aber semi-empirisch geschlossene diskrete Gleichungen: die Sache mit der "rechten Seite".

Ich fand es sehr erfrischend, dies mal ausdrücklich dargestellt zu sehen, selbst wenn ich das in jeder Vorlesung über Klimamodelle als mehr oder minder selbstverständlich erwähne.

Aber. Die Aussage
a) "Eine vollständige Abbildung des realen Kausalnexus ist bei unserem heutigen Wissenstand nicht möglich – vor allem wg. der inhärenten massiven Nichtlinearitäten und der großen Komplexität der wechselwirkenden Prozesse"
finde ich problematisch - wg der Worte "vollständig" "der reale Kausalnexus". Heißt "vollständig": Erklärung aller auch nur marginal relevanter Details? Kausalnexus - vermutlich "Verbindung zwischen Ursache und Wirkung" - aber welche Wirkung? Kann es ein Modell geben, für das im strikten Sinne (a) nicht gilt? Ich denke nicht.

Auch mit (c) habe ich Probleme: Die Cousins der Klimamodelle liefern jeden Tag "Antizipation von Zukunft", nämlich das Wetter der kommenden tage, trotz Nichtlinearität. Die Vorhersage, wonach es im Nordsommer wärmer als im Nordwinter ist, gelingt mit Klimamodellen, was zwar statistisch keine überraschende Leistung ist, wohl aber wenn man bedenkt, dass man dort kodierte Formen "hochgradig nichtlinear vernetzte Zusammenhänge" (Klimamodelle) verwendet. Nach Peter Braun sollte man erwarten, dass dies mit Klimamodellen nicht gelingt. Aber es gelingt doch.

Marcus said...

Und Tschuldigung,

das hier ist, auch wenn es *maechtig* formuliert ist, einfach Topfen (Quark):

"man übersieht aber leider nur all zu oft, daß man es mit Modellen deskriptiven (konzeptionellen) Charakters zu tun hat, denen eines sicher fehlt : Mathematische Stringenz im Sinne der fundamentalen Gesetze der Theoretischen Physik (Symmetrien, Extremalprinzipien, Wirkungsfunktionale ….)."

Nein, es ist keine notwendige Bedingung fuer "mathematische Stringenz" dass etwas als Variationsproblem formuliert werden kann, und aus Symmetrien und Noether Theorem Erhaltungssaetze abgeleitet werden koennen. Oder was soll diese "Stringenz" bitte sein.

"Es ist eine schlichte Tatsache (und wird ebenso oft verdrängt), daß die „Flußgleichungen“ (dynamische Gleichungen) z. B. nicht aus einem Extremalprinzip hergeleitet werden können (was in der Grundlagenphysik bekanntlich die Regel ist"

Das ist sehr schade sagt aber dennoch nicht aus, dass man mit ihnen nicht Aspekte der Realitaet erfolgreich modellieren und auf einem Computer simulieren kann. Es gibt schlussendlich Mittel und Wege die Grenzen eines Modells zu pruefen.

Fuer die Navier Stokes Differentialgleichung, schoen nichtlinear (ich bekreuzige mich) gibt es auch keinen Eindeutigkeitssatz und das ist auch unschoen... trotzdem wird sie seit 100 Jahren erfolgreich in Wissenschaft und Industrie eingesetzt um Stroemungen aller Art zu berechnen, 1000 Male jeden Tag

LG
Marcus

Hans von Storch said...

Marcus/5 - dem stimme ich gerne zu.
Es geht um "Aspekte der Realitaet erfolgreich [zu] modellieren" ... "Grenzen eines Modells".

Modelle sind kleiner als die Realität, einfacher - das sollen sie auch sein; die Frage ist: was ist der Mehrwert an Wissen, der erzeugt wird? Darf ich unser Buch empfehlen:
Müller, P., and H. von Storch, 2004: Computer Modelling in Atmospheric and Oceanic Sciences - Building Knowledge. Springer Verlag Berlin - Heidelberg - New York, 304pp, ISN 1437-028X

Marcus said...

Danke Herr Professor,

Nur eine Frage hab ich noch:

"dass es "die Differentialgleichungen" nicht gibt, sondern nur je nach Auflösung geeignet physikalisch motivierte, aber semi-empirisch geschlossene diskrete Gleichungen: die Sache mit der "rechten Seite"."

Gibts da ein konkretes Beispiel, eine Gleichung, meinen Sie die Problematik wenn man was eigentlich diskretes kontinuierlich macht, zB aus Teilchen pro Volumen eine Dichte, die man dann differenziert etc.

Danke sowieso fuer den Buchtipp!

LG
Marcus

U. Langer said...

Sehr geehrter Prof. v. Storch,

einige Anmerkungen zu Ihren Kommentaren:
#4
Ihr Problem mit „vollständig“ resultiert aus Ihrer Interpretation von „Kausalnexus“. Interpretiert man „Kausalnexus“ als den ursächlichen Zusammenhang, lösen sich Ihre Probleme mit Aussage a) auf. Um diesen ursächlichen Zusammenhang richtig darzustellen, ist es nicht nötig, alle „marginal relevanten Details“ einzubeziehen. Wenn ich weiß, dass ein Detail nur marginal relevant ist, kann ich es weglassen – eine Grundeigenschaft von allen Modellen. Natürlich gibt es Modelle, die einen solchen ursächlichen Zusammenhang abbilden und solche, die daran scheitern.
Ihr Problem mit c) resultiert m.E. aus einer falschen Interpretation von nichtlinearen und komplexen Systemen. Man kann u.U. problemlos mit akzeptabler Eintrittswahrscheinlichkeit bei solchen Systemen die nähere Zukunft vorhersagen (Wetter von morgen / Klima der nächsten 12 Monate / nächsten 2 Bewegungen bei komplexen Pendeln…). Es ist (derzeit) aber grundsätzlich unmöglich, bei solchen Systemen die entferntere Zukunft vorherzusagen (Wetter in 3 Monaten / Klima in 50 Jahren / Pendelbewegungen der nächsten 30 Sekunden …). Insofern ist ihre Analogie mit den Wettervorhersagen falsch – hätten Sie den Wetterbericht für den 24.12.2011 genommen, wäre es o.k.. Auch Ihr Vergleich mit der Vorhersagbarkeit der Temperaturunterschiede von Sommer und Winter mit Klimamodellen ist unzutreffend. Eine solche „Prognose“ ist keine Wissenschaft, denn es wird etwas Offensichtliches „vorhergesagt“. Natürlich kann man Modelle an dieser Vorhersage testen. Fällt das Modell durch, ist es zu verwerfen. Mehr kann man aber aus so einem Test nicht ableiten, denn das Bestehen eines solchen Tests ist notwendig aber nicht hinreichend für die Richtigkeit eines Modells (wie z.B. auch die Rekonstruktion vergangener Klimazustände).
#6
Modelle MÜSSEN kleiner sein als die Realität, sonst wären sie ja keine Modelle! Den Mehrwert an Wissen hat Peter Braun in b) gut zusammengefasst.
Dass a) bis c) den Interpretationen von Klimamodellen, wie sie z.B. beim IPCC vollzogen werden, den Boden entzieht, ist vielleicht für Einige traurig aber nicht zu ändern.

MfG

Hans von Storch said...
This comment has been removed by the author.
Hans von Storch said...

Marcus schrieb "Gibts da ein konkretes Beispiel, eine Gleichung, meinen Sie die Problematik wenn man was eigentlich diskretes kontinuierlich macht, zB aus Teilchen pro Volumen eine Dichte, die man dann differenziert etc."

- das Beispiel gehört auch dazu, denn bei einem Gitter von 10**-50 m von einem Kontinuum zu sprechen, macht wohl wenig Sinn. Der in der Mathematik für die Eigenschaft "Konsistenz einer Diskretisierung" erforderliche, und in der Regel als unproblematisch angesehene Grenzübergang "delta x gegen Null" ist kaum möglich. Aber gravierender sind Beispiel mit endlichen Abmessungen, z.B. :

Der Prozess der Turbulenz in der bodennahen Grenzschicht kann nicht aufgelöst werden, da beliebig klein, muß also parametrisiert werden - üblicherweise durch Vorgabe des statistisch zu erwartenden Wirkung dieser Turbulenz auf die explizit diskretisierten Zustandsgrößen (Erwartungswert der durch den größerskaligen Zustand des Systems; siehe dazu auch von Storch, H., 1997: Conditional statistical models: A discourse about the local scale in climate modelling. In P. Müller and D. Henderson (Eds.): Monte Carlo Simulations in Oceanography: Proceedings of the 9th 'Aha Huliko'a Winter Workshop, 1997, University of Hawaii at Manoa, January 14-17, 1997, 49-58).

Anderes Beispiel. Atmosphärische Konvektion. Bei einem Gitter von, sagen wir 1, km kann dieser zentrale Prozess explizit in den 3-D "angepassten" (ohne Schallwellen) Navier-Stoke'schen Gleichungen dargestellt werden, in 25 km und mehr nicht. Insofern unterscheiden sich die Gleichungen bei 25 km Gitterauflösung notwendigerweise von denen, die bei einem 1 km Gitter verwendet werden.

Übrigens haben Nico Stehr (Theor. Soz.), Armin Bunde (Theor.Phys) und ich einen Beitrag geschrieben, in dem wir fragen, ob Klimaforschung eine Variante von Physik sei - sie ist es nicht. Erscheint mit irreführendem Titel im September hier:
von Storch, H., A. Bunde and N. Stehr, 2011: The Physical Sciences and Climate Politics In J.S. Dyzek, D. Schlosberg, and R. B. Norgaard (eds): The Oxford Handbook of Climate Change and Society. Oxford University Press. Oxford UK. [Bei Interesse via e-mail nach pdf nachfragen.]

Hans von Storch said...

Peter Braun bittet um die Veröffentlichung dieses Diskussionsbeitrages.

1) Hans von Storch:
Zum Problem „Kausalnexus“: Ist tatsächlich vielleicht mißverständlich, gemeint sind natürlich all diejenigen strukturellen Abhängigkeiten (Prozesse und deren Wechselwirkung), die im Wesentlichen (natürlich ein schwammiger Begriff) das Sytemverhalten determinieren. Die Frage, die hier im Raum steht, ist doch die, ob die bekannten Modelle die wesentlichen Determinanten des Systems erfassen oder ob es da noch „verborgene Parameter“ geben kann, die relevant sein könnten. In der Quantenmechanik ist durch die Arbeit von John Bell logisch konsistent bewiesen worden, daß es solche verborgenen Parameter („Grüne Männchen“) in der Quantenwelt nicht gibt. Können wir das mit derselben Gewissheit für unsere „semiempirischen“, hoch-parametrisierten Modelle auch behaupten? Ich denke nicht. Dafür gibt es wohl nach wie vor zu viele „weiße Flecken“ in der Modelllandschaft – die offensichtlich ziemlich mangelhaft verstandene Wolkenphysik ist dabei nur ein Beispiel.
Das leitet gleich zu dem Einwand von Marcus über, wonach die Gültigkeit von Extremalprinzipien nicht zwingend für die mathematische Stringenz einer Modellaussage sei. Schön. Wenn man allerdings – was in der klassischen Physik die Regel ist – eine Bewegungsgleichung aus einem HAMILTON – Prinzip ableitet, kann man zwingend davon ausgehen, daß die Bewegungsgleichung den Verlauf des beschriebenen Prozesses eindeutig und vollständig beschreibt. Die Beschreibung ist in diesem Sinne abgeschlossen. Es bleibt kein Platz für grüne Männchen. Auch darf man nicht unbedingt darauf vertrauen, daß der Modelldesigner immer die „richtige“ Prozeßbeschreibung findet. Wenn man kein deduktives, logisch und mathematisch wasserdichtes Prinzip in Anspruch nehmen kann, kommt man eben ins Schwitzen, denn dann ist die Bewegung (der „Fluss“) nicht objektivierbar! Die Beschreibung verliert ihre Eindeutigkeit, denn die in den hier besprochenen „weichen“ Modellbeschreibungen zwangsläufig enthaltenen Mehrdeutigkeiten sind dann nicht durch Argumente der mathematischen Konsistenz zu entkräften. In diesem Zusammenhang möchte ich kurz die von Marcus aufgestellte Behauptung analysieren, es gäbe „schlussendlich Mittel und Wege, die Grenzen eines Modells zu prüfen“. Ein sehr kühner Schluss: Ein Modell, das im Hinblick auf seine Struktur und die implementierten Prozeßparameter unscharf ist, kann auch keine scharfen Grenzen haben. Muß ich wirklich an den uralten Modelliererwitz erinnern, daß ein Modell, das mehr als 5 freie Parameter enthält, auch einen alten runzeligen Elefanten beschreiben kann (ich weiß allerdings nicht mehr so genau, ob es afrikanische oder asiatische waren)?

2) Zum Problem „Antizipation der Zukunft“ : Hiermit war natürlich gemeint, daß die Modelle keine echten Vorhersagen liefern (im Unterschied zu den oben besprochenen eindeutig durch Naturgesetze festgelegten Vorhersagen). Ich habe selbst bei den eifrigsten Alarmisten nirgends die Behauptung gefunden, daß ihre Modelle das leisten würden. Vielmehr besteht doch wenigstens darüber Konsens, daß man mit den Modellen lediglich Szenarien rechnet, die – bei dieser Formulierung bleibe ich – bei kritischer Würdigung obiger Aspekte – Anhaltspunkte für etwas geben, was passieren könnte, keinesfalls wg. der mangelnden Vollständigkeit der Modelle passieren muß. Ich komme auf diesen wichtigen Aspekt im Zusammenhang mit der von Marcus angestoßenen Debatte über die NS – Gleichung zurück

Teil 2 folgt aus Platzgründen sogleich separat.

Hans von Storch said...

nun Teil 2:

3) Herr von Storch! Ich habe das von Ihnen angeführten Beispiel, wonach es gemäß meiner Auffassung von Antizipation der Zukunft keinen Winter oder Sommer auf der nördl. Halbkugel geben könne, mit großem Schmunzeln zur Kenntnis genommen. Ich schließe hiermit zur allfälligen Erheiterung den Kalauer an, das (im Sommer ist es wärmer als im Winter) weiß Peter Braun auch - ohne aufwändige Modelle (und zwar schon eine stattliche Reihe von Jahren). Aber im Ernst: Ich traue den Modellen mehr zu als dieses absolute Minimalprogramm! Denn trotz vieler Nichtlinearitäten, Synergien und emergenter Effekte etc. sollte wohl der quasizyklische Modellantrieb in jedem Klimamodell am Ausgang erkennbar bleiben. Ich vermute, daß die Modelle sogar frequenzabhänge Amplitudendämpfungen/Verstärkungen der Antriebe liefern – nur in welchem Ausmaß (und aus welchen Gründen !!) das ist hier doch die Frage. Schließlich gab es früher schreckliche „Klirrkästen“ als Verstärker, bei denen man auch noch wenigstens eine Ahnung bekam, was uns der Sender sagen wollte. Ach ja, zur Antizipation noch folgendes: Sie zitierten mit Recht die Cousins der Klimaforscher, die ja qua Wettervorhersage jeden Tag die Zukunft antizipierten. Nun ja, auf diesem Gebiet hat wohl jeder so seine eigenen Ansichten und Erfahrungen: Sollte ich jemals in die fatale Lage kommen, lebenswichtige Entscheidungen auf der Basis von Vorhersagen mit der Treffsicherheit von Wetterprognosen treffen zu müssen (insbesondere wenn gewisse triviale Kohärenzzeiten überschritten werden, sagen wir mal 4 – 6 Tage), dann hätte ich den Beistand von „ganz oben“ bitter nötig.

4) Navier – Stokes (NS): Hier hat Marcus etwas angestoßen, was mit Sicherheit nicht die Ergebnisse zeitigen wird, die er sich vielleicht versprochen hat. Ich hatte im Hinblick auf meinen (sicher etwas provokanten) Diskussionsbeitrag ursprünglich vor, Glanz und Elend nichtlinearen Verhaltens am Beispiel eben dieser Gleichungen zu diskutieren. Aber, wie Fontane sagen würde, das ist ein sehr, sehr weites Feld. Immerhin sind diese Gleichungen und der Nachweis der Existenz von mathematisch konsistenten Lösungsmannigfaltigkeiten eines der Millenniumsprobleme, für deren Lösung 1 Mio. $ ausgelobt werden. Schaut man sich die NS – Gleichungen mal näher an, dann sieht man ihnen auf den ersten Blick zunächst nicht an, daß der Nachweis von strengen Lösungen so schwierig ist. Bekanntlich gehen die NS – Gleichungen aus den Eulerschen (Bewegungs) - Gleichungen dadurch hervor, daß man zu diesen noch einen (unmittelbar einleuchtenden) Viskositätsterm addiert (als „Retter der Differenzierbarkeit“). Es gibt von Thomas Sonar einen wunderschönen Artikel „Turbulenzen um die Fluidmechanik“ (Spektrum der Wissenschaft, Dossier 6/09: Die größten Rätsel der Mathematik, S. 64 ff) der in gut nachvollziehbarer Form die grundlegenden Probleme um die Mathematik der Lösungstheorie für NS – Gleichungen behandelt. Der entscheidende Punkt, warum hier solch riesige Probleme bestehen, ist etwas, das wir alle gut kennen (insbesondere natürlich auch bei Wetter und Klima): Die Turbulenz.

und im nächsten Kommentar der dritte Teil

Hans von Storch said...

Und nun der dritte, vorletzte Teil des Beitrages von Peter Braun.

Tatsächlich wird in der Praxis heute (mit sehr leistungsfähigen) Programmen sehr viel und mit guter Genauigkeit (dank diverser „Abschließunghypothesen“) mit den NS – Gleichungen gerechnet. Den Ingenieur kümmert´s wenig, wenn die mathematische Existenz der Lösung, die er numerisch erhält, keineswegs gesichert ist. Die Turbulenz ist für mich allerdings das emergente Phänomen nichtlinearen Verhaltens schlechthin. Man weiß sehr gut, bei welchen Reynoldszahlen Turbulenz einsetzt, allerdings nicht – warum! Wir betreiben Klimamodelle ja nicht aus Selbstzweck (nehme ich mal angesichts der damit verbundenen Kosten an). Angesichts der prinzipiellen Bedeutung der Fluiddynamik in Klimamodellen sollten wir hellhörig werden, denn wir wollen doch diese Modelle einsetzen, um z. B. die Frage zu beantworten: Wie reagiert das Klima auf eine Erhöhung des CO2 – Spiegels in der Atmosphäre? Das heißt doch ganz klar, daß man alle Prozesse, die die Wechselbeziehung zwischen CO2 und , sagen wir, der Temperatur in „relevanter“ Weise enthalten, in einer rational nachprüfbaren Form im Modell codieren muß.

Kurz: Das Modell sollte die Antwort auf die Frage gestatten: Was passiert, wenn….?
Für mich ist es schon ein ernstes Problem, wenn die Prädiktivität des Modells (mindesten auf längeren Skalen) von Prozessen abhängen kann, die ich zwar beschreiben, aber nicht „verstehen“ kann. Bei Wetterprognosen scheint es ziemlich klar zu sein, daß sie jenseits der bereits genannten Kohärenzlängen chaotisch entarten (z. B. wg. turbulenten Verhaltens der Atmosphäre?). Da ich kein Klimatologe bin, frage ich: Wo gibt es die aus bekannten Naturgesetzen ableitbare Gewißheit, daß dies beim „Klima“ auf längeren Skalen (100 Jahre!) nicht auch der Fall sein könnte ?

Es kommt aber noch dicker. So hübsch die NS – Gleichungen aussehen und so leistungsfähig die phänologischen Beschreibungen der Turbulenz sein mögen: Es gibt inzwischen einen Zugang zur Turbulenz, der nichts mehr mit NS zu tun hat! Dieser neue Zugang arbeitet mit rein geometrischen Überlegungen und erlaubt die Ermittlung von Kennzahlen der Turbulenz (von Karman – Konstante, Vorfaktoren des dreidimensio-nalen Eulerschen Wellenzahlspektrums (alpha1 und beta1) für beliebig große Reynoldszahlen)! Das kann NS in dieser Allgemeinheit nicht – was ja wohl heißt, daß NS nicht alle Phänomene der Turbulenz beschreiben kann (Literatur hierzu:

„Universal Constants and Equation of Turbulent Motion“ by Helmut Z. Baumert. Submitted to arXiv.org July 25, 2011

Die hier besprochenen Gesichtspunkte halte ich sowohl unter rein wissenschaftlichen als auch unter praktischen Aspekten für bedeutsam. Es ist also tatsächlich so: Die Tatsache, daß uns kein übergeordnetes physikalisch – mathematisches Prinzip bei der Legimitation unserer Modellansätze zu Hilfe kommt, macht um Ernsthaftigkeit bemühte Forscher (seien sie im Klimabereich oder in der Hydrologie und Limnologie tätig) eine richtig ärgerliche Menge Scherereien. Da ich schon sehr lange nicht mehr aktiv auf diesen Feldern tätig bin, will ich für mich nicht in Anspruch nehmen, diese schwierigen Prozesse voll zu durchschauen. Ich gestehe allerdings, daß mir das Ganze nicht „geheuer“ ist. Insbesondere, wenn ich die Gehässigkeit und Schärfe der „Ausei-nandersetzung“ z. B. im Blog Chaos, Wetter, Klima | Primaklima | ScienceBlogs.de - Wissenschaft, Kultur, Politik als übles Beispiel in den Blick nehme. Es ist eine Schande, daß diese z. T. haßerfüllten Zänkereien von Leuten gepflegt werden, die wahrscheinlich vom Steuerzahler alimentiert werden und für diese Zänkereien viel Zeit (und damit Geld) verpulvern. Auf Leute, die noch einige Körner in der Kiepe haben (Entschuldigung, so sagt man das bei uns), wirkt das derartig albern (um nicht zu sagen abstoßend), daß der Wissenschaft damit ein extrem schlechter „Dienst“ erwiesen wird.

Hans von Storch said...

Hier der vierte und letzte Teil des Beitrages von Peter Braun

Zum Schluß noch eines: Wir wissen inzwischen, daß es das ehrgeizige Ziel gibt, durch direkte Steuerung des CO2 – Spiegels der Atmosphäre die Erderwärmung (mit Hilfe der Klimamodelle als Steueralgorithmen) auf eine Obergrenze von 2 Grad zu begrenzen. Ich bin wirklich nicht in der Lage, die quantitativen Aspekte turbulenter Transportprozesse im Wechselspiel einzelner Zustandsgrößen und im globalen Maßstab der Prozesse zu beurteilen. Da das CO2 selber einer Kontinuitätsgleichung genügen muß, ist es nicht nur ein Parameter, sondern eine Zustandsgröße. Deshalb wird der Transportterm für die CO2 – Dynamik in der Atmosphäre nicht ganz unwichtig sein (um das Mindeste zu sagen). Es müssen also noch sehr viele „Grüne Männchen“ gefangen werden (was ich bitte nicht politisch verstanden wissen will), bis es keinen vernünftigen Zweifel an der Zuverlässigkeit der errechneten Szenarios mehr geben wird. Bei dieser Arbeit wünsche ich allen, die noch aktiv tätig sind, in unser aller Interesse viel Erfolg!Eines liegt mir noch am Herzen: Man sollte endlich mit der diffamierenden Einteilung der Wissenschaftler nach „Alarmisten“ und „Skeptiker“ aufhören. Das ist doch wirklich Quark, um in Marcus´ etwas robuster Diktion zu sprechen: Jeder verantwortliche Wissenschaftler sollte Alarm schlagen, wenn nach seiner Meinung aus seiner Arbeit die Erkenntnis erwächst, daß „etwas schief“ läuft – aber bitte erst nach höchsten Maßstäben genügender Skepsis und Reflexion seiner Arbeit! Und noch etwas: Angesichts der realen Unsicherheiten der Modellbeschreibungen („Rechte Seiten“ (!!) rate ich zu mehr Bescheidenheit: Apodiktische Zuschreibungen wie „90% der Erwärmung sind anthropogen begründet“ sind aus meiner Sicht genau so fehl am Platze wie die Ignoranz der Tea – Party Leute, Klimawandel gibts nicht (oder so ähnlich, so genau wissen es diese Leute eben auch nicht). Nicht wütende Polemik gegeneinander steht auf der Tagesordnung, sondern angestrengte, wissenschaftlichen Standards genügende interdisziplinäre Arbeit!

Peter Braun, Potsdam, 20. August 2011

Günter Heß said...

Danke Herr Braun,
exzellenter Beitrag
Mit freundlichen Grüßen
Günter Heß

Anonymous said...

Hallo Herr Braun,

Was Sie zu Primaklima, bzw. Scienceblogs et al. erklären kann ich leider nur bestätigen.

Bei ihren Ausführungen muss ich jedoch (als Laie) leider passen. Schon oft habe ich mich gefragt ob die agressiven Katastrophisten wirklich etwas verstehen von dem was sie im Netz anderen Leuten an den Kopf schmeissen, gespickt mit Ad hominems, Unterstellungen, Beleidigungen und sogar manchmal Drohungen. Was verleitet diese Leute dazu das Ende der Demokratie herbeizusehnen?

Nicht selten habe ich mir erklären lassen (müssen), dass die Atmosphäre gar nicht mehr Wasserdampf aufnehmen kann, als die "Modelle", bzw. die Physik "vorhersagen".

Gerade neulich habe ich erfahren, dass die Luft weit mehr Wasserdampf aufnehmen kann als man dachte. Ach nee, wie das denn? Wie können 4000 Fachleute sich so sehr irren?

Und wie ist es mit anderen Parametern? Mir ist da noch ein Projekt genannt "Biosphäre 2" in Erinnerung, das kläglich an der ?Arroganz? ihrer Schöpfer scheiterte. Und wie war das mit BSE und dem Waldsterben?

Aber die Physik der Luft ist doch wohl seit Jahrhunderten bekannt? Und die natürlichen Klimaphänomene kennt man auch schon alle und man kann sie deswegen dem menschlichen Einfluss problemlos gegenüberstellen?!

Mit ein klein wenig Schadenfreude stelle ich fest, dass man sich gewaltig geirrt hat. Man hat einen wichtigen Faktor offenbar phänomenal unterschätzt? Ist das wirklich der einzige? Gerade beim Thema Wasserdampf war ich immer sehr skeptisch, befindet sich doch Wasser in vielen verschiedenen Zuständen in der Atmosphäre, aber ... ;-)))

Nun ja, aber ein immer wieder gern gesehener Gast bei den Scienceblogs, ein gewissen "Jörg Zimmermann", der mittlerweile sogar von Klima-Taliban schwafelt, und ausserdem Herr Von Storch persönlich offenbar gewaltig auf dem Kieker hat (siehe Links), versteht alles besser als alle Spezialisten weltweit zusammen, ausser seinen Scienceblogger-kollegen sebstverständlich, denn die stehen gottgleich über allem und Jedem, was sie selbstverständlich dazu berechtigt jeden der zu irgendeinem Thema nicht ganz ihrer Meinung ist, heftig und äusserst rüpelhaft zu beleidigen.

LINKS:
*globalklima.blogspot.com/2010/01/betroffenheitstrolle.html
*stehr-und-von-storch-profilieren-sich.html
*was-will-dieser-freundliche-alte-herr.html
*klimaforscher-als-antidemokraten-oder.html
*leugner-versohnen-sich-mit-sich-selbst.html

MfG

Yeph

PS: Ja ich weiss, dass es leicht ist im Nachhinein auf Fehler hinzuweisen, wenn man immer "souverän" skeptisch bleibt und sich nie festlegt.

Mit meiner Kritik ziele ich nur auf Diejenigen, die genau wissen wen ich meine. Keinesfalls sind damit die Von Storchs und Zoritas gemeint!

Anonymous said...

Wir reden von Klimaschutz und in Holland wollen sie einen Berg von mehr als 2000 m Höhe bauen:

http://www.escalademag.com/une-montagne-aux-pays-bas

Anonymous said...

auch im Spiegel:

http://www.spiegel.de/panorama/0,1518,781825,00.html

Helmut Z. Baumert said...

Hallo allerseits,

ich hab diesen Blog erst jetzt gelesen und will optimistische Bemerkungen zu Nichtlinearitäten und Navier-Stokes machen.
Nicht nur in der Physik sind Nichtlinearitäten die Regel. Man denke an coulombsch-molekulare Wechselwirkungen in Gasen
oder an Gravitation. Ungeachtet der Nichtlinearitäten hat die Physik diese Probleme glanzvoll gelöst (Maxwell, Newton+Einstein).
Die Klimaforschung scheint noch nicht die richtigen Tricks (Symmetrien, Erhaltungssätze, Variationsprinzipien+?) gefunden zu haben,
um trotz Komplexität zu robusten Ergebnissen zu kommen. Sie verhält sich ein wenig stur und eitel, und bislang präsentiert sie sich einfach
als recht schlechte Physik, bleibt hinter den modernen Möglichkeiten zurück. Sie kann aber dennoch auf Schlagzeilen + $$$ hoffen,
weil jedermann vom Klima betroffen ist und das Thema daher immer politisch ist. Ja, das ist eine Falle für die Forschung. Man kann direkt,
aber auch indirekt hineintapsen...

Die Klimaforschung würde ihre Chancen erhöhen, wenn sie sich methodisch der modernen Physik komplexer Phänomene stellen könnte.
Die begann schon in den 1920er Jahren mit Debye und wurde u.a. von Feynman, Landau, Anderson, Laughlin fortgeschrieben, die
allesamt dafür Nobelpreise erhielten. Es geht um More is different und emergente Phänomene.

In der Klimaforschung werden die Begriffe Theorie und Modell anders interpretiert. Meist werden darunter Approximationsmethoden
für die Navier-Stokes-Gleichungen verstanden (Atmosphäre und Ozeane sind bekanntlich Fluide), mit seitlich angedockten
empirischen Beziehungen zwischen allerlei Beobachtungen. Aber hier geht es schon los: Diese Fluide sind turbulent.
Wenn ich auch glaube, dass wir neutral geschichtete Turbulenz jetzt verstehen (s. http://arxiv.org/abs/1203.5042),
so gilt dies kaum für geschichtete Turbulenz, wo interne Wellen eine Rolle spielen und noch immer Vorhersagefehler
von mehreren hundert Prozent für den vertikalen Austauschkoeffizieten typisch sind.

Als Hauptfragen des Klimas sehe ich an (1) bessere (moderne) Physikmethodik und (2) stärkere Konzentration
auf den Ozean. Denn der bestimmt die klimatologisch relevanten Skalen. Denken wir dabei an die Debatte über heliozentrische und
geozentrische Weltbilder. Die Komplexität der Epizyklen (das meteorologische Herangehen ans Klima) wurde durch die schlichte
Einfachheit von Kreisen/Ellipsen ersetzt (der ozeanographische Standpunkt). Eine übergreifende Tendenz ist erkennbar:
Die Welt ist einfach, und mit dem richtigen Blickwinkel und den richtigen kreativen Tricks kommen wir voran, erhalten
tiefere Einblicke in die einfache Schönheit der Welt (wohl ohne sie je vollständig entschlüsseln zu können,
aber darum geht es hier nicht). Die Betonung liegt auf Kreativität, die gegenüber der
Fabrikarbeit des Forschungsbetriebs ein wenig ins Hintertreffen geraten zu sein scheint.

MfG