Das Ende der Hypothese von der menschgemachten globalen Erwärmung
Archivmeldung vom 03.01.2015
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 03.01.2015 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittJede Gegenwart weist ungewöhnliche Zeiterscheinungen auf. Heute ist es ein bemerkenswerter Paradigmenwechsel in der Klimaforschung. Wir erleben in der Klimamodellierung die Wiederauferstehung eines mittelalterlichen Wissenschafts-Paradigmas, die Rückkehr der Scholastik. Dieser Wandel wird von einer neuen Spezies von Wissenschaftlern angetrieben, die ihr Fach gewechselt haben. Sie gehören nun der Politik und nicht mehr der Wissenschaft an - mit fließenden Übergängen. Dies schreibt Prof. Dr. Horst-Joachim Lüdecke in seinem Beitrag auf der Webseite des Europäischen Instituts für Klima und Energie (EIKE).
Lüdecke schreibt weiter: "Unter Paradigma versteht man eine allgemein verbindliche Denk- und Vorgehensweise. Es handelt sich im vorliegenden Fall um die Art und Weise, wie zuverlässige Kenntnisse über die Natur und Abläufe des Klimas erlangt werden können. Da der neue Typ von Politik-Wissenschaftlern in vielen westlichen Gesellschaften der Politik, den der Politik folgenden Medien und den Profiteuren gelegen kommt, wurde die neue Scholastik der Klimamodellierung schnell salonfähig. Manche Fachkollegen sprechen auch von "postmoderner Klimaforschung". Es gibt bedenkliche Anzeichen, dass diese Bewegung ihres Erfolges wegen bereits andere naturwissenschaftliche Bereiche infiziert hat.
Das Paradigma der modernen Naturwissenschaft
Stellen wir zunächst das wiederauferstandene mittelalterliche Paradigma "Scholastik" der in allen anderen naturwissenschaftlichen Disziplinen gültigen modernen Vorgehensweise gegenüber! Die Vorstellung vom Funktionieren der Welt hatte im Mittelalter einen Höhepunkt erreicht. Scholastik war ein von den logischen Schriften des Aristoteles ausgehendes Verfahren zur Entscheidung wissenschaftlicher Fragen vermittels ausschließlich theoretischer Betrachtung. Eine Behauptung wurde den für und gegen sie sprechenden Argumenten gegenübergestellt und daraus eine Entscheidung über ihre Richtigkeit abgeleitet. Die Behauptung galt als widerlegt, wenn sie unlogisch, begrifflich unklar, oder mit bereits aus der Scholastik selber hergeleiteten Behauptungen unvereinbar war. Gemäß letztem Kriterium drehte sich die Scholastik oft im Kreise.
Es waren zwei bahnbrechende Persönlichkeiten, die zuerst vom Weg der Scholastik abwichen und die Türe zur Moderne öffneten: der deutsche Staufer-Kaiser Friedrich II (1194-1250) und der italienische Physiker Galileo Galilei (1564-1641). Das Buch Friedrichs II über die Falkenjagd, De arte venandi cum avibus, verwendete erstmalig die Methode der systematischen Beobachtung, um daraus allgemeine Schlüsse über das Funktionieren der Natur, hier das Verhalten von Greifvögeln zu ziehen. Das Buch war bis weit hinein in die Neuzeit ein Standardwerk für die Jagd mit Falken. Für einen wissenschaftlichen Paradigmenwechsel war das 13. Jahrhundert freilich noch nicht reif. Der endgültige Umbruch erfolgte erst in der Renaissance mit Galilei, vorbereitet von Vorgängern, deren Namen heute nur noch spezialisierten Historikern bekannt sind.
Galilei gab neben der systematischen Beobachtung der numerischen Messung die höchste Priorität. Das theoretische Modell wurde damit zwangsweise mathematisiert, und es hatte unabdingbar den Messungen zu folgen. Erst damit war der Weg zur Entwicklung brauchbarer physikalischer Theorien frei, hier der Theorie vom freien Fall. Hypothesen oder Theorien, die nicht durch Messungen bestätigt werden konnten, wurden von nun an verworfen und nicht mehr weiterverfolgt. Dieses Vorgehen war und ist bis heute verbindlich. Selbst Einsteins spezielle Relativitätstheorie wurde erst akzeptiert, als sie mit Feldmessungen anlässlich einer geeigneten Sonnenfinsternis bestätigt werden konnte. Richard Feynman, Nobelpreisträger und einer der bedeutendsten Physiker des 20. Jahrhunderts drückte das seit Galilei geltende moderne Wissenschafts-Paradigma populär so aus:
Egal, wie bedeutend der Mensch ist, der eine Theorie vorstellt,
egal, wie elegant sie ist,
egal wie plausibel sie klingt,
egal wer sie unterstützt,
……
wenn sie nicht durch Beobachtungen und Messungen bestätigt wird, dann ist sie falsch.
Das moderne Wissenschaftsparadigma und die globale menschgemachte Erwärmung
Es steht außer Frage, dass es in der Erdvergangenheit auf allen Zeitskalen starke Klimaveränderungen gab. Der Wechsel von Warm- und Eiszeiten ist jedem von uns noch aus dem Naturkundeunterricht geläufig. Mitte des 19. Jahrhunderts ~1850 begann dann die industrielle Revolution, und die CO2-Konzentration der Luft stieg von 280 ppm auf heute ca. 400 ppm an. Aktuell ist allenthalben von einer ernsten Bedrohung durch unzulässige Erhöhung der globalen Mitteltemperatur auf Grund dieses anthropogenen CO2-Anstiegs die Rede. Die Befürchtung hat einen nachvollziehbaren Hintergrund, denn CO2 ist ein Infrarot absorbierendes Naturgas der Erdatmosphäre.
Es würde den Rahmen des Beitrags sprengen, auf alle Für und Wider, alle politischen und gesellschaftlichen Begleiterscheinungen der Hypothese von einer menschgemachten globalen Erwärmung einzugehen, für die im Folgenden das Kürzel AGW (Anthropogenic Global Warming) verwendet wird. Wenden wir daher besser das moderne Paradigma der Naturwissenschaft auf die AGW-Hypothese an! Die dabei zu beantwortende Frage ist denkbar einfach, lässt überhaupt keinen anderen Weg zu und lautet:
"Sind ab dem Jahre 1850 gemessene Klimawerte oder deren Veränderungen bekannt, welche den bekannten Rahmen aus den Zeiten davor sprengen?"
Die Antwort kann nur JA oder NEIN lauten. Falls JA, müssen wir von einer hohen Wahrscheinlichkeit eines anthropogenen Klimawandels seit 1850 ausgehen. Falls NEIN, können wir zumindest einen maßgebenden anthropogenen Klimawandel ausschließen. Wir müssen aber einräumen, dass mit einem NEIN noch kein Beweis für das Nichtvorhandensein einer anthropogenen Klimaerwärmung vorliegt. Das moderne Wissenschaftsparadigma schneidet die bunten Blumen solcher Erwägungen und Spekulationen freilich rabiat ab, denn es sagt kurz und bündig:
Eine Hypothese, die nicht durch Messungen belegbar ist, ist falsch!
Dieser Punkt ist vielen Leuten anscheinend immer noch nicht in aller Deutlichkeit und Konsequenz klar. Die Beweislast einer Hypothese liegt nicht beim Skeptiker, denn es ist unmöglich zu beweisen, dass es etwas nicht gibt (hier die AGW). Die Beweislast liegt beim Vertreter der Hypothese! Es ist sinnlos eine bestimmte Hypothese zu favorisieren - sinnlos nach unserem immer noch gültigen Wissenschaftsparadigna der Naturwissenschaft - wenn keine bestätigenden Messwerte für sie beigebracht werden können. Man kann sich dann mit dieser Hypothese zwar beschäftigen, man kann sie in den Mittelpunkt seiner Forschung stellen und man kann auch fest an sie glauben. Man darf sie aber ohne bestätigende Messungen nicht zur Grundlage rationalen Handelns machen. Ergo: Wenn wir nichts Klima-Ungewöhnliches seit ~1850 im Vergleich mit der Zeit davor messen, müssen wir von einer natürlichen Klimaänderung ausgehen!
Vielleicht kommt jetzt dem einen oder anderen Leser ein weiteres wichtiges Wissenschaftsparadigma in den Sinn. Es kam bereits in der mittelalterlichen Scholastik zur Anwendung und ist bis heute unangefochten gültig. Es handelt sich um das Rasiermesser von Ockham. Dieses besagt, dass von mehreren möglichen Hypothesen desselben Sachverhalts die einfachste allen anderen vorzuziehen ist. Das Ockham'sche Rasiermesser kommt zum Einsatz, wenn wir nach den Ursachen des natürlichen Klimawandels fragen. Gibt es eine einfachste Hypothese? Dazu später ein paar Worte.
Was zeigen die Messwerte seit ~1850 im Vergleich mit der Zeit davor?
Erfreulicherweise kann dieser Abschnitt kurz gehalten werden, denn es ist nur Folgendes zu berichten: infolge der sehr großen Mittel, die bisher in die Klimaforschung geflossen sind, liegen heute fast unüberschaubare Mengen an Klimadaten (Temperaturreihen weltweit, Satellitendaten, SST-Messungen, die neuen ARGO-Bojen, usw.) und an Klima-Proxydaten (aus Eisbohrkernen, Sedimenten, Baumringen, Stalagmiten usw.) vor. Fazit all dieser Daten: Es ist aus ihnen nicht ableitbar, dass seit ~1850 irgend etwa Unnatürliches, verglichen mit - sagen wir einmal - den 2000 Jahren davor, vorgefallen ist; zur Erinnerung: der CO2-Gehalt der Luft ist kein Klimaparameter. Was die Landtemperaturen angeht, hat auch der Autor zu diesem Thema berichtet, allerdings nur als Nebenaspakt (hier, hier).
Inzwischen hat sich die Sachlage des Fehlens von ungewöhnlichen Temperatur-Messwerten seit ~1850 so weit unter den Klima-Alarmisten herumgesprochen, dass inzwischen auf "Nebenkriegsschauplätze" gesetzt wird. In Mode sind jetzt geheimnisvolle Wärmemengen, die sich in den Ozeanen verstecken und weiteres mehr. Alles schön und gut, hier eröffnen sich noch weite Forschungsvorhaben, die wir unterstützen. Aber dennoch immer wieder zur Erinnerung: es muss zwingend nachzuweisen sein, dass die Klimadaten seit ~1850 im Vergleich mit der Zeit davor unnatürliche Werte aufweisen.
Dieser Nachweis ist mit Ozeanmessungen, die schließlich erst am Anfang stehen, wohl noch schwieriger als mit Messdaten von Landtemperaturen. Wer kann heute denn sagen, welche Temperaturverteilungen die Ozeane in der mittelalterlichen Warmperiode aufwiesen? Über Extremwetter, Meeresspiegel und Gletscher wurde bereits unzählige Male berichtet. Auch hier gilt: Es gibt nichts Ungewöhnliches seit ~1850 im Vergleich mit davor. Speziell gilt aber noch mehr: in zwei IPCC-Reports, einmal in IPCC Climate Change 2001, the sientific basis, Chapter 02, Abschnitt 2.7, S. 155 (hier) sowie dann im IPCC Extremwetterbericht (2012) (hier) ist nachzulesen, dass noch nicht einmal Zunahme von Extremwetterereignissen feststellbar ist. Im letztgenannten Report ist lediglich von vermuteten zukünftigen Ereignissen die Rede. Dies gehört in die Rubrik "Kristallkugel" nicht aber zu "naturwissenschaftlichem Paradigma".
Der Autor ist noch die Antwort auf die Frage nach dem Ockham-Prinzip anlässlich der Angabe einer einfachsten Hypothese für Klimawandel schuldig. Sie fällt schwer. Die drei Hauptkandidaten sind zweifellos der Sonneneinfluss (Sonnenzyklen), Autozyklen und Chaos bzw. eine Mischung aller drei. Ob eine Entscheidung darüber jemals getroffen werden kann, ist eine offene Frage der Klimaforschung. Obwohl oft Sonnenzyklen erstaunlich gut mit Klimazyklen zusammenfallen, verbleiben in der Regel schwerwiegende Probleme der zeitlichen Kohärenz und der fluktuierenden Korrelations-Stärke.
Den Einfluss des Menschen auf Klimaänderungen dürfen wir dagegen beruhigt abschreiben, zumindest dann, wenn wir das moderne naturwissenschaftliche Paradigma nicht aufgeben wollen, das unabdingbar Messbelege fordert. Die Abkehr vom modernen Wissenschaftsparadigma findet aber heute mit Klima-Computermodellen tatsächlich statt. Klimamodelle sind zweifellos wertvolle Hilfsmittel für Detailforschungen. Die Modelle versagen freilich schon bei der Klimavergangenheit, können den Eintrittszeitpunkt des nächsten El Nino nicht vorhersagen und fordern eine Erwärmungszone über dem Tropengürtel in 5 - 10 km Höhe, der nicht messbar ist (Hot Spot). Gemäß R. Feynman sind diese Klimamodelle daher nicht nur ungenau oder ein wenig falsch, sie sind total falsch. Als Klimaprognose- oder Klimaprojektionen-Instrumente (das ist im Grunde dasselbe) sind sie ungeeignet. Es muss daher ganz deutlich gesagt werden:
Wer Klimavorhersagen oder Klimaprojektionen aus Klimamodellen als wissenschaftlich verkauft, bedient sich eines mittelalterlichen Paradigmas. Er betreibt Geisteswissenschaft an Stelle von Physik.
Lesen den vollständigen Beitrag hier: http://www.eike-klima-energie.eu/news-cache/das-ende-der-hypothese-von-der-menschgemachten-globalen-erwaermung-kurz-und-buendig/
Quelle: EIKE