News und Termine

Um Antwort wird gebeten: Frontal21 und der Klimwandel im Senegal

An: Frontal21
Von: Sebastian Lüning

Gesendet: 18.1.2016

 

Sehr geehrte Redaktion,

Sie haben am 24.11.2015 in Ihrer Sendung im Vorfeld der Pariser Klimakonferenz über den Klimawandel berichtet. Zur Einstimmung auf das Thema zeigten Sie einen Einspielbeitrag aus dem Senegal. In diesem Zusammenhang wird behauptet, der Ort Sangomar wäre im Zuge des Klimawandels zur Insel geworden. Als Geologe kenne ich diesen Küstentyp jedoch ziemlich gut. Es handelt sich um einen Küstenstreifen mit starken küstenparallelen Strömungen, die zu ständigen Verschiebungen der Sandzungen führen und episodische Durchbrüche erzeugen. Eine ähnliche Situation gibt es auf den Ostfriesischen Inseln. Auf Wikipedia ist die Situation für das im Beitrag erwähnte Sangomar korrekt wiedergegeben:
https://en.wikipedia.org/wiki/Point_of_Sangomar

The rupture in Sangomar is the result of a natural process for the past few thousand years, which has also been noticed by sailors. In 1891, it was found that the gap had widened from 25 to 30m since 1886. In the twentieth century, several breaks were reported including: 1909, 1928, 1960, 1970, etc. The latest occurred on 27 February 1987 at a place called Lagoba. A year later, the gap was reported to be 1 km wide, and ten years later, about 4 km.Several camps and buildings were destroyed. The fish packing plant at Djifer was closed in 1996. The village located 4 km north of the first breakpoint is increasingly threatened and authorities are considering the evacuation of its inhabitants to the new port of Diakhanor.Parallel to the phenomenon of erosion, occurs a process of sedimentation: the extremity of the new Southern Island of Sangomar increases by 100 m per annum to the south and, on the opposite bank, the outskirts of the villages of Niodior and Dionewar are silting considerably, reducing traffic of vessels and contributing to the isolation of populations.

Ich finde es erstaunlich, dass Sie Ihren Zuschauern fälschlicherweise einen Zusammenhang mit dem Klimawandel vorgeben. Das hätte sich mit ein wenig Googlen oder den richtigen wissenschaftlichen Beratern leicht vermeiden lassen können. Auch ist der Meeresspiegel im Senegal laut Dakar-Küstenpegel nicht außergewöhnlich stark angestiegen.
http://www.psmsl.org/data/obtaining/stations/1816.php

Zudem ist Küstenerosion ein ganz normales Phänomen, unabhängig vom Klimawandel.

Desweiteren behaupten Sie im Beitrag, es gäbe immer schlimmere Stürme und heftigere Regengüsse im Senegal, die alle Folge des Klimawandels wären. Könnten Sie mir bitte die entsprechenden wissenschaftlichen Arbeiten angeben, die eine Zunahme der Stürme im Senegal belegen würde? Ansonsten wären dies unbelegte Behauptungen, die in einer analytischen Sendung wie Frontal21 nichts zu suchen haben.

Abschließend wird noch behauptet, dass extreme Regenfälle im Senegal zugenommen hätten. Auch dies kann von der Wissenschaft nicht bestätigt werden. Sarr et al. 2015 fanden keinen belastbaren Trend:
http://www.sciencedirect.com/science/article/pii/S2214581815000646

Gerade im Themenfeld Klimawandel sollten die berichteten Fakten stimmen. Das Thema ist zu wichtig und gesellschaftspolitisch sensitiv, als dass Mutmaßungen oder persönliche Meinungen die Grundlage für die Diskussion bilden könnten. Es wäre wichtig, dass Sie die meiner Meinung nach fehlerhafte Darstellung in einer Ihrer zukünftigen Sendungen korrigieren. Die Zuschauer verlassen sich auf die Integrität Ihrer Analysen, die jedoch in diesem Fall leider nicht gegeben war.

Mit freundlichen Grüßen

Dr. habil. Sebastian Lüning

——————————

An: Dr. Sebastian Lüning
Von: Dr. Peter Frey, ZDF-Chefredakteur

Gesendet: 18.4.2016

(Antwortschreiben wird an dieser Stelle ergänzt, sobald die Genehmigung des ZDF hierzu vorliegt)

Inhaltliche Zusammenfassung:

Dr. Frey erklärt, man habe den Sendebeitrag nocheinmal überprüft, habe aber keine Fehler feststellen können. Die Redaktion habe sich auf Aussagen von Dr. Koko Warner vom Institute for Environment and Human Security verlassen. Dr. Warner hätte auch Studien genannt (die Dr. Frey jedoch leider nicht namentlich zitiert), die den Einfluss des Klimawandels auf die Küste des Senegals angeblich belegen würden.

Desweiteren habe der ZDF-Kollege Bernd Reufels die Lokalbevölkerung und Umweltschützer in der Region befragt, die allesamt eine Zunahme der Küstenerosion in letzter Zeit beklagt hätten. Weiterhin hätte die Konrad-Adenauer-Stiftung in ihrem Klimareport 2014 den Senegal als eines der am stärksten vom Klimawandel betroffenen Ländern genannt, insbesondere durch Küstenerosion und Meeresspiegelanstieg.  

——————————

Wir danken Dr. Frey für seine Antwort und wollen seinen Hinweise gerne nachgehen.

1) Wer ist Koko Warner?
Dr. Warner saß bis April 2016 im Vorstand der sogenannten “Munich Climate Insurance Initiative“, die eng mit der Munich Re verbandelt ist. Zu ihren Vorstandskollegen gehörte u.a. Peter Hoeppe, der als Munich Re-Angestellter ein großes Interesse daran hat, die Klimagefahr möchst dramatish aussehen zu lassen, da dies das Extremwetter-Versicherungsgeschäft kräftig ankurbelt. Warner ist Ökonomin, keine Naturwissenschaftlerin. In ihren Projekten arbeitet sie vor allem über ökonomische und gesellschaftliche Klimawandelfolgen. Insofern sind Warners Hinweise zu angeblichen Klimaschäden im Senegal mit Vorsicht zu genießen.

 2) Was ist das Institute for Environment and Human Security?
Ein Institut der UNO in Bonn, an dem Dr. Warner seit April 2016 als ‘Manager’ tätig ist.

3) Befragung von Landbevölkerung und Umweltschützern ist keine etablierte wissenschaftliche Methode. Das Gedächtnis der Menschen ist allgemein begrenzt und überhöht meist die Ereignisse der letzten Jahre. Stichwort “Früher war alles besser”, z.B. hier und hier.

4) Klimareport 2014 der Konrad-Adenauer-Stiftung
Das pdf des Report gibt es hier. Das Senegal-Kapitel findet sich auf den Seiten 93-96. Geschrieben wurde es von Dr. Ute Gierczynski-Bocandé von der Konrad-Adenauer-Stiftung, studiert und promoviert in französischer und deutscher Literatur und Sprache, Afrikanistik, und Pädagogik. Die Autorin ist keine Naturwissenschaftlerin. Das Senegal-Kapitel enthält keine belastbaren Aussagen hinsichtlich des Klimawandels im Senegal, insbesondere keine Verweise auf verwendete Literatur.

Die Antwort des ZDF ist daher enttäuschend. Bei den Journalistenrecherchen kam offenbar kein einziger Naturwissenschaftler zu Wort, stattdessen verließ man sich auf persönliche Meinungen von Ökonomen, Sprachwissenschaftlern, Afrikanisten, Pädagogen sowie die Lokalbevölkerung. Gerade beim hochpolitischen Thema Klimawandel ist dies absolut ungenügend, wenn es um naturwissenschaftliche Aussagen zur Klimagefahr geht. Noch schlimmer: Der Großteil der Zuschauer wird diese Qualitätsmängel bei der Berichterstattung gar nicht bemerkt und die Aussagen als Expertenmeinungen für bare Münze genommen haben. Hier muss Frontal21 dringend nachbessern.

——————————

An: Dr. Peter Frey, ZDF-Chefredakteur
Von: Dr. Sebastian Lüning

Gesendet: 24.5.2016

 

Sehr geehrter Herr Dr. Frey,

Ganz herzlichen Dank für Ihre ausführliche Antwort zu meiner Email bezüglich der Frontal21-Berichterstattung am 24. November 2015 zum Klimawandel im Senegal. Obwohl ich mich sehr freue, dass Sie meine Einwände ernst nehmen, war ich über den Inhalt Ihres Schreibens doch einigermaßen erschüttert. Ich hatte bemängelt, dass die naturwissenschaftlichen Grundlagen (hier: dynamische Küstenmorphologie) im Beitrag ignoriert wurden, wodurch die Klimagefahr in einem ganz falschen Licht dargestellt wurde. Die von Ihnen genannte Beraterin Dr. Koko Warner ist studierte Ökonomin, daher wohl kaum eine gute Recherchequelle für die geologische Küstendynamik. Dasselbe gilt übrigens auch für die Autorin des Senegal-Kapitels im Klimareport 2014 Konrad-Adenauer-Stiftung, die französische & deutsche Literatur und Sprache, Afrikanistik und Pädagogik studiert hat. Offenbar hat das Frontal21-Team keinen einzigen Naturwissenschaftler zur Thematik befragt. Wie gesagt, ein einziger Blick in Wikipedia hätte ausgereicht, um die Fehlinterpretation zu vermeiden. Die Befragung der Lokalbevölkerung und von Umweltaktivisten ist ebenfalls keine anerkannte wissenschaftliche Methode, insbesondere im Hinblick auf das “Früher war alles Besser-Phänomen”. http://karrierebibel.de/nostalgie-war-frueher-alles-besser/

Es ist ein Grundcharakteristikum dieses speziellen dynamischen Sand-Küstentyps, dass es zu schnellen örtlichen Änderungen bei Erosion und Ablagerung kommt. Hätte Ihr Kollege die Bevölkerung im Senegal vor 100 Jahren befragt, so hätte er vermutlich exakt dieselben Antworten bekommen. Sie erwähnen, dass Frau Dr. Warner dem Frontal21-Team Publikationen zur Küstenerosion im Senegal vorgelegt hat. Es wäre schön, wenn Sie mir diese Studien nennen könnten.

Meiner Meinung nach hat das Frontal21-Team hier schlampig recherchiert und sollte sich mit der Kritik angesichts der großen Bedeutung des Themas Klimawandels inhaltlich auseinandersetzen. Die Zuschauer haben ein Recht darauf, ausgewogen und fachlich korrekt über den Klimawandel unterrichtet zu werden, gerade auch im Vorfeld der damaligen Klimakonferenz.

Mit freundlichen Grüßen

Sebastian Lüning

 

P.S. Im Sinne der Transparenz möchte ich Sie bitten mir zu erlauben, Ihre Antwort auf kaltesonne.de bekanntzugeben

 

Neue Studie der George Washington University: Modelle zu kalifornischen Waldbränden überschätzen Rolle des Klimawandels

Immer wenn irgendwo der Wald brennt, ist der Schuldige schnell gefunden. Es muss wohl der Klimawandel sein, wer denn sonst. Eine Forschergruppe um Michael L. Mann (das ist nicht der Hockeystick-Mann, der Michael E. Mann heißt) veröffentlichte am 28. April 2016 in PLOS One eine explosive Studie, die Unerhörtes fand: Das individuelle menschliche Verhalten hat neben dem Klimawandel ebenfalls einen sehr starken Einfluss auf die Entstehung von Waldbränden. In Kalifornien gehen 90% aller Waldbrände auf menschliche Ursachen zurück. Die Forscher fordern daher stärkere Bemühungen, das Verhalten der Menschen zu beeinflussen, z.B. keine brennenden Zigarettenstummel mehr aus dem Wagen zu werfen. Im Folgenden die entsprechende Pressemitteilung der George Washington University zur Veröffentlichung:

It’s Not Just Climate Change: Study Finds Human Activity Is a Major Factor Driving Wildfires

Study Weighs Human Influence in Wildfire Forecast Through 2050

A new study examining wildfires in California found that human activity explains as much about their frequency and location as climate influences.  The researchers systematically looked at human behaviors and climate change together, which is unique and rarely attempted on an area of land this large. 

The findings suggest many models of wildfire predictions do not accurately account for human factors and may therefore be misleading when identifying the main causes or drivers of wildfires. The newest model proportionately accounts for climate change and human behavioral threats and allows experts to more accurately predict how much land is at risk of burning in California through 2050, which is estimated at more than 7 million acres in the next 25 years. 

The paper, “Incorporating Anthropogenic Influences into Fire Probability Models: Effects of Human Activity and Climate Change on Fire Activity in California,” appears Thursday in PLOS ONE. 

Climate change affects the severity of the fire season and the amount and type of vegetation on the land, which are major variables in predicting wildfires. However, humans contribute another set of factors that influence wildfires, including where structures are built, and the frequency and location of ignitions from a variety of sources—everything from cigarettes on the highway to electrical poles that get blown down in Santa Ana winds. As a result of the near-saturation of the landscape, humans are currently responsible for igniting more than 90 percent of the wildfires in California.

“Individuals don’t have much control over how climate change will affect wildfires in the future. However, we do have the ability to influence the other half of the equation, those variables that control our impact on the landscape,” said Michael Mann, assistant professor of geography at the George Washington University and lead author of the study. “We can reduce our risks by disincentivizing housing development in fire-prone areas, better managing public land and rethinking the effectiveness of our current firefighting approach.”

The researchers found that by omitting the human influence on California wildfires, they were overstating the influence of climate change. The authors recommend considering climate change and human variables at the same time for future models. 

“There is widespread agreement about the importance of climate on wildfire at relatively broad scales. At more local scales, however, you can get the story quite wrong if you don’t include human development patterns,” said Max Moritz, a co-author and a University of California Cooperative Extension specialist based at UC Berkeley. “This is an important finding about how we model climate change effects, and it also confirms that getting a handle on where and how we build our communities is essential to limiting future losses.”

Between 1999 and 2011, California reported an average of $160 million in annual wildfire-related damages, with nearly 13,000 homes and other structures destroyed in so-called state responsibility areas—fire jurisdictions maintained by California, according to Dr. Mann. During this same period, California and the U.S. Forest Service spent more than $5 billion on wildfire suppression.

In a model from 2014 that examined California wildfires’ destruction over the last 60 years, Dr. Mann estimated that fire damage will more than triple by 2050, increasing to nearly half a billion dollars annually. “This information is critical to policymakers, planners and fire managers to determine wildfire risks,” he said.

 

Das Ergebnis passt gut zu einer Studie eines Teams um Scott Anderson, die im Dezember 2013 in The Holocene erschien. Die Autoren fanden, dass die Waldbrandentwicklung Kaliforniens während der letzten Jahrtausende eng an die Besiedlungsgeschichte gekoppelt war. Hier die Kurzfassung:

Holocene and historical vegetation change and fire history on the north-central coast of California, USA
Pollen, non-pollen palynomorphs (NPPs), and charcoal particle stratigraphies are used to determine environmental change at Glenmire, Point Reyes Peninsula, northcentral coastal California, over the last c. 6200 years. Pollen was not preserved in early Holocene sediments when climate was drier than present. However, groundwater tables rose after c. 6200 cal. BP, allowing for greater subsequent preservation of organic matter. Middle and late Holocene environments were a mosaic of vegetation types, including mixed conifer forest with coastal scrub grassland prior to c. 4000 cal. BP. Subsequently, hardwoods such as alder (Alnus) and coastal scrub (e.g. Artemisia, Baccharis) expanded until c. 2200 cal. BP, followed by tanoak (Lithocarpus densiflorus), Douglas fir (Pseudotsuga menziesii), and coast redwood (Sequoia sempervirens). With increasing amounts of oak (Quercus), this mosaic of vegetation types continued to dominate until the arrival of Euro-Americans in the early to mid-1800s. The fire history is probably tied closely to human settlement, since natural ignitions are rare. Elevated charcoal amounts coincide with increased sedentism of the native populations by about 3500 cal. BP. Increased sedentism may have caused a more intense and constant use of the coastal environment around Glenmire. For the most recent centuries, we compared historical records of explorations, Spanish Mission establishment, consolidation of the native Coast Miwok population, ranching by Mexican nationals, and dairying by Americans at the height of California’s gold rush with the paleoecological record. The Glenmire record thus documents changing fire use following the ad 1793 fire suppression proclamation; declines in native forest species; introductions of non-native species, including those associated with livestock grazing and land disturbance; and an increase in coprophilous fungi (NPPs) associated with the presence of large numbers of sheep and cattle, among other changes. During the historical period, the sedimentary record of historical fires closely matches the nearby fire-scar tree-ring record.

Interessant auch eine Trendanalyse aus der kalifornischen Sierra Nevada von Chad Hanson und Dennis Odion, die im Zeitraum von 1984-2010 auf Basis von Satellitenbildern keinen Trend in der Waldbrandhäufigkeit feststellen konnte. Die Autoren schlussfolgern, dass der Einfluss des Klimawandels auf die Waldbrandentstehung im Vergleich zu menschlichen Auslösern gering ist. Hier der Abstract der Studie, die 2013 im International Journal of Wildand Fires erschien:

Is fire severity increasing in the Sierra Nevada, California, USA?
Research in the Sierra Nevada range of California, USA, has provided conflicting results about current trends of high-severity fire. Previous studies have used only a portion of available fire severity data, or considered only a portion of the Sierra Nevada. Our goal was to investigate whether a trend in fire severity is occurring in Sierra Nevada conifer forests currently, using satellite imagery. We analysed all available fire severity data, 1984–2010, over the whole ecoregion and found no trend in proportion, area or patch size of high-severity fire. The rate of high-severity fire has been lower since 1984 than the estimated historical rate. Responses of fire behaviour to climate change and fire suppression may be more complex than assumed. A better understanding of spatiotemporal patterns in fire regimes is needed to predict future fire regimes and their biological effects. Mechanisms underlying the lack of an expected climate- and time since fire-related trend in high-severity fire need to be identified to help calibrate projections of future fire. The effects of climate change on high-severity fire extent may remain small compared with fire suppression. Management could shift from a focus on reducing extent or severity of fire in wildlands to protecting human communities from fire.

Schließlich sei noch auf eine Studie aus dem Juli 2015 hingewiesen, in der ein ganz unerwarteter weiterer Schuldiger für die Entstehung von Waldbränden in Kalifornien genannt wird: Luftmassenintrusionen aus der Stratosphäre. Die American Geophysical Union (AGU) gab hierzu die folgende Pressemitteilung heraus:

Stratospheric accomplice for Santa Ana winds and California wildfires
Southern Californians and writers love to blame the hot, dry Santa Ana winds for tense, ugly moods, and the winds have long been associated with destructive wildfires. Now, a new study finds that on occasion, the winds have an accomplice with respect to fires, at least: Natural atmospheric events known as stratospheric intrusions, which bring extremely dry air from the upper atmosphere down to the surface, adding to the fire danger effects of the Santa Anas, and exacerbating some air pollution episodes.

The findings suggest that forecast models with the capacity to predict stratospheric intrusions may provide valuable lead time for agencies to issue air quality alerts and fire weather warnings, or to reallocate firefighting resources before these extreme events occur. “The atmosphere could give us an early warning for some wildfires,” said Andrew Langford, a research chemist at the National Oceanic and Atmospheric Administration’s (NOAA) Earth System Research Laboratory in Boulder, Colorado, and lead author of the study.

Researchers at NOAA’s National Environmental Satellite, Data, and Information Service (NESDIS) and the Cooperative Institute for Research in Environmental Sciences (CIRES) at CU-Boulder coauthored the work, which has been accepted for publication in Geophysical Research Letters, a journal of the American Geophysical Union. The authors took a detailed look at the May 2013 “Springs Fire” that burned 100 square kilometers (25,000 acres) about 75 kilometers (50 miles) northwest of Los Angeles. The researchers used a NOAA forecast model that incorporates satellite observations of ozone, wind data, and other atmospheric information to detect the occurrence of the intrusions.

The analysis showed that in the early hours before the Springs Fire, a tongue of air characteristic of the stratosphere–extremely dry and very high in ozone from the stratosphere’s ozone layer–reached to the surface in southern California and extended as far south as Baja California. The researchers found that ground-based monitoring stations near the fire’s origin also confirmed the telltale signs of the intrusion right before the fire broke out: A large drop in relative humidity and a rise in ozone. As the day went on, a combination of factors accelerated the fire: Low humidity, persistent high winds, dry condition of the grasses and other vegetation, clear skies and bright sunlight, and very warm surface temperatures. A few days later, cloudy skies, a drop in temperature, a shift in winds, and widespread rainfall helped extinguish the fire.

The stratospheric intrusion also had another downside during the Springs Fire: It added ozone from the upper atmosphere to the urban and fire-related pollution produced in the lower atmosphere. On the second and third days of the fire, this helped to push levels of ozone–which can harm people’s lungs and damage crops–over the federal ozone limit at 24 monitoring sites across southern California. Monitors as far away as Las Vegas also saw a spike in ozone on the third day of the fire. The observed exceedances of the ozone standard were unusual for the region for that time period, suggesting that the stratospheric intrusions were a contributing factor.

“Stratospheric intrusions are double trouble for Southern California,” said Langford. “We knew that the intrusions can add to surface ozone pollution. Now we know that they also can contribute to the fire danger, particularly during La Niña years when deep intrusions are more frequent, as recently shown by our NOAA colleagues at the Geophysical Fluid Dynamics Laboratory. The good news is that with models and observations, we can get an early warning from the atmosphere in some cases.”

The authors note that stratospheric intrusions have previously been implicated in the explosive development of wildland fires in New Jersey and Michigan, but have not previously been connected to fires in southern California or to the Santa Ana winds. The frequent occurrence of stratospheric intrusions above the west coast during the fall, winter, and spring suggests that similar circumstances may have played a role in other major southern California fires, including the series of destructive fires that burned more than 3,000 square kilometers (more than 800,000 acres) in October of 2003, and burned about 4,000 square kilometers (nearly a million acres) in October of 2007, say the authors.

 

Energiewende kostet 2016 laut Institut der deutschen Wirtschaft rund 31 Milliarden Euro

Allmählich hat es wohl auch der Letzte gemerkt, dass die stümperhaft geplante Energiewende so nicht weitergehen kann. Die Wirtschaftswoche fand am 12. Mai 2016 klare Worte:

Energiewende: Warum die Ökostromförderung endlich enden muss
Die Stromerzeugung aus Wind, Sonne, Wasser und Biomasse braucht neue Spielregeln, sie kostet Verbraucher und Wirtschaft jährlich Milliarden. Wie das Erneuerbare-Energien-Gesetz (EEG) reformiert werden soll, was das für Verbraucher und Erzeuger bedeutet. [...]  Insgesamt müssen Verbraucher und Wirtschaft derzeit pro Jahr bis zu 24 Milliarden Euro per Umlagen für den Ausbau der grünen Stromerzeugung aus Wind, Sonne, Wasser und Biomasse bezahlen. Dabei ist schon heute an guten Standorten die Stromerzeugung mit Windanlagen an Land auch ohne Förderung günstiger als Strom aus Kohle- oder aus Kernkraftwerken. Windturbinen werden immer effizienter, Windparks können aus der Ferne gesteuert werden. Zwischen 2010 und 2014 sind die Kosten für die Erzeugung von Windstrom um ein Drittel gesunken. Wenn der Staat nun also die öffentliche Förderung der Erneuerbaren zurückschrauben will, dann ist das überfällig. Viele Jahre schon profitieren Unternehmen wie Enercon vom süßen Gift staatlicher Subventionen. Ihr Geschäft ist längst marktreif.

Ganzen Artikel auf wiwo.de lesen.

Ein Blick auf die Stromrechnung reicht, um das Problem zu erkennen. Die Welt erklärte es am 27. April 2016:

Strom ist teuer wie nie – Wie es dazu kam
Es schien, als könnten die Strompreise endlich sinken: Doch in Wahrheit zahlen Deutschlands Verbraucher derzeit so viel wie noch nie. Stromkunden werden sogar noch stärker belastet als Autofahrer.
Ein Jahr lang konnten die Deutschen auf sinkende oder wenigstens stabile Strompreise hoffen. Doch spätestens jetzt haben sie Gewissheit, dass sich diese Erwartung nicht erfüllen wird. Ganz im Gegenteil: Eine aktuelle Analyse des Preisvergleich-Portals TopTarif offenbart, dass Verbraucher für ihren Strom derzeit so viel bezahlen wie noch nie. Das Preisniveau der Grundversorgung in Deutschland erreichte im April sein Allzeithoch. Verbraucher, die ihren Strom im Standardtarif vom örtlichen Versorger kaufen, müssen aktuell durchschnittlich 30,27 Cent pro Kilowattstunde (kWh) zahlen, vor einem Jahr kostete der Strom noch deutlich weniger als 30 Cent. Eine vierköpfige Musterfamilie mit einem Verbrauch von 4000 kWh zahlt demnach im April im Schnitt 1211 Euro im Jahr für Strom, wie die Daten von Toptarif zeigen. Vor einem Jahr waren es noch weniger als 1200 Euro, vor fünf Jahren waren es nur gut 1000 Euro.

Weiterlesen auf welt.de.

Wo bleibt das ganze Geld? Die Wirtschaftswoche verriet es am 28. April 2016:

Windräder stehen still – und kosten Hunderte Millionen Euro
Weil das Stromnetzes überlastet ist, müssen immer mehr Windräder abgeregelt werden. Das kostet die Netzbetreiber Hunderte Millionen Euro. Wegen des Booms der erneuerbaren Energien müssen immer mehr Windräder abgeregelt werden. Grund dafür ist die Überlastung des Stromnetzes. Die Netzbetreiber müssen Windräder abregeln, wenn ihr Strom das Netz zu verstopfen droht. Ursprünglich war dies als Notmaßnahme gedacht. Die Wind- und Solarparkparkbetreiber werden jedoch für den nicht produzierten Strom vergütet.

Weiterlesen in der Wirtschaftswoche

Anstatt die unkontrollierten Geldabflüsse endlich zu stoppen, schmeißt man munter weiter mit Euros um sich, wie die FAZ am 27. April 2016 erläuterte:

Neue Subvention „Die Prämie für E-Autos ist ein schwerer Fehler“
Die Regierung hat die 4000-Euro-Kaufprämie für Elektro-Autos beschlossen. Automanager und Betriebsräte sind glücklich. Doch viel mehr Freunde hat die Prämie nicht. [...] Die Umweltschutzorganisation BUND moniert das „Milliardengeschenk“ an die Branche. Besonders problematisch sei die Prämie für Plug-in-Hybride, die “meist nur auf dem Papier sparsam und sauber” seien. Harsche Kritik kam auch von namhaften Ökonomen: „Die Prämie für E-Autos halte ich für einen schweren Fehler”, sagte  Ifo-Präsident Clemens Fuest. Die 600 Millionen Steuergelder wären besser in der Erforschung und Entwicklung neuer Umwelttechnologien angelegt. 

Ganzen Artikel in der FAZ lesen.

Was kostet der ganze Spaß eigentlich? Finanznachrichten.de weiß es:

Energiewende kostet 2016 laut IW rund 31 Milliarden Euro
[...] Das sind rund drei Milliarden oder elf Prozent mehr als 2015. Ein Grund seien die immer größeren Kosten zur Stabilisierung des Stromnetzes. Außerdem verursache der anhaltende Ausbau der erneuerbaren Energien zusätzliche Belastungen.

Ganzen Artikel auf Finanznachrichten.de lesen

Visionen, Aktionen und Realität. Ruhrkultour beschrieb am 27. April 2016 ein einprägsames Beispiel, wie eine Energiewende scheitern kann:

El Hierro – Das bittere Ende eines Energiewende-Märchens
“Seit dem 27. Juni 2014 wird die elektrische Energie der Insel vollständig von Windkraft erzeugt”, heißt es im Nachschlagewerk Wikipedia, unter Berufung auf einen Artikel aus der Zeitschrift GEO*, der allerdings vom August 2013 stammt. Titel: “El Hierro wird Ökomodell”. Die Realität hat den Traum schon längst  beendet, genau besehen, bereits vor den ersten Baumaßnahmen des Projekts. [...]  „Im Jahre 2015 wurde der Wunschtraum, 100 % Strom aus Erneuerbarer Energie zu beziehen, am 9. August für etwas mehr als 2 Stunden erreicht. In der ersten Jahreshälfte konnten die sauberen Energiequellen zu 30 % genutzt werden. In den Monaten Juli und August lagen die Mittelwerte zwischen 49 und 55 %. Die fehlende Energie musste das alte Schwerölkraftwerk beisteuern, das man eigentlich stilllegen wollte“, so der Blog lapalma1.net.

Ganzen Artikel auf Ruhrkultour lesen.

Angesichts der Energiewenden-Misere überrascht es nicht, dass die EU mittlerweile plant, die Zügel etwas zu lockern. Ofimagazine.com meldete am 13. Mai 2016, dass die EU nach 2020 wohl die verpflichtende Beimischung von Biotreibstoffen im Transportwesen wegfallen lassen könnte:

EU confirms the green transport target will be scrapped post-2020
Current laws in the EU, which require member states to use at least 10% of renewable energy in the transport sector, are to be scrapped after 2020, EurActiv reported on 4 May. A revision of the current Renewable Energy Directive (RED) will be tabled by the European Commission (EC) at the end of the year, with the aim being to push wind and solar energy. Marie Donnelly, director for renewables at the EC commented, “we will look specifically at the challenges and opportunities of renewable fuels including biofuels”. The 10% renewable fuel target for the transport sector would be dropped in a new post-2020 directive, Donnelly said.

Weiterlesen auf Ofimagazine.com

Mittlerweile erwägt auch die dänische Regierung, die Subventionen für die Erneuerbaren Energien stark zurückzufahren.

Bedenklich ist die wachsende Gewaltbereitschaft von Klimaaktivisten. Vor kurzem stürmten Aktivisten das große Braunkohlekraftwerk Schwarze Pumpe. Roland Tichy schrieb dazu am 16. Mai 2016:

Energiepolitik: Erfolgreicher Angriff auf Kraftwerk
Erstmals wurde die Stromerzeugung durch brutale Angriffe von Demonstranten gefährdet und musste herabgefahren werden. Es gab aber auch Gegendemonstrationen. Die Grünen wiederum freuen sich, dass das Energieversorgung bald insgesamt blockiert werden könnte. [...] Nach Polizeiangaben waren rund 1.600 Aktivisten aus ganz Europa in die Lausitz gekommen. Das Bündnis „Ende Gelände“ zog eine rundum positive Bilanz nach den Protesten. „Das Aktionswochenende hat alle unsere Erwartungen übertroffen“, hieß es seitens des Bündnisses. Für Diskussionen dürfte in den kommenden Tagen noch der äußerst passive Polizeieinsatz sorgen. „Die Beamten hatten den Besetzern das gesamte Wochenende nahezu freies Geleit gelassen. Was immer sie besetzen wollten – sie konnten gemütlich hineinlaufen“, freute sich die taz .

Ganzen Artikel auf rolandtichy.de lesen.

Machen hier Aktivisten und Politik bereits gemeinsame Sache?  Toleriert oder sogar selbst bestellt? Es würde jedenfalls ins Bild passen.

 

Wie der „Guardian“-Chef zum Klimakämpfer wurde

Im September 2015 erschien von Horst Demmler das Buch Wider den grünen Wahn: Eine Streitschrift (Edition Octopus). In der Buchbeschreibung heißt es:

Die Grünen haben wie keine andere Partei oder Gruppierung den Geist der Zeit in den letzten Jahrzehnten bestimmt. Die von ihnen repräsentierte Umweltbewegung war in dieser Periode die einzige originäre neue Kraft. Die Grünen haben mit ihren Themen die gesellschaftlichen Diskussionen geprägt. Sie wurden groß durch ihren leidenschaftlichen Kampf gegen die Kernkraft. Sie triumphierten, als nach dem Reaktorunglück in Fukushima der Ausstieg aus der Kernenergie beschlossen wurde und auch die Bundeskanzlerin erkannte, was Restrisiko bedeutet. Sie haben die regenerativen Energien gefördert und das Erneuerbare-Energien-Gesetz (EEG) auf den Weg gebracht. Deutschland ist auf diesem Gebiet Spitzenreiter in der Welt. Die Grünen waren mit ihren Themen auf allen Gebieten erfolgreich. Wie keine andere Partei können sie auf die Unterstützung durch die Medien rechnen. Die wichtige Frage aber ist: Haben sie auch recht? Ist es vernünftig, ihren Vorschlägen zu folgen? Das soll in diesem Buch geprüft werden.

Preis: € 20,40. Weitere Textproben hier.

—————-

Vor kurzem berichteten wir an dieser Stelle über neue Studien, die ein Ergrünen des Planeten durch den CO2-Düngeeffekt festgestellt haben. Der Cartoon-Zeichner Josh hat sich dazu eine nicht ganz unrealistische Interviewszene ausgedacht:

Weitere Klima-Cartoons von Josh hier.

—————-

Der MIT-Klimaforscher Richard Lindzen hat die Klimaproblematik im April 2016 in einem 5-minütigen Video zusammengefasst:

Das Script des Films zum Nachlesen gibt es hier. Siehe auch Alfred Brandenbergers Zusammenstellung zu Lindzen.

—————-

Wenn Redakteure zu Klimaaktivisten werden… Bereits vor einigen Tagen haben wir hier im Blog einen bedauernswerten Fall vorgestellt (“Wenn als Redakteure getarnte Aktivisten gemeinsame Sache mit der Versicherungsindustrie machen: Das Märchen von den Klimawandel-Waldbränden“). Der ORF berichtete am 3. Mai 2016 über ein weiteres Beispiel, bei dem ein vormals neutral berichtender Journalist auf Aktivistenabwege geriet:

Wie der „Guardian“-Chef zum Klimakämpfer wurde
Alan Rusbridger, der langjährige Chefredakteur des „Guardian“, hat den Journalismus an den Nagel gehängt – und ist nun Umweltaktivist. Anlässlich eines Vortrages in Wien erzählte er, wie es zu dieser Wende in seinem Leben kam.

Nicht schön, meine Damen und Herren.

 

ARD-Doku “Im Land der Lügen – Wie uns Politik und Wirtschaft mit Zahlen manipulieren”

In der ARD lief am 11. April 2016 eine höchst sehenswerte Doku, die allen Bloglesern wärmstens ans Herz gelegt wird. Auf der Webseite zum Film heißt es:

Im Land der Lügen – Wie uns Politik und Wirtschaft mit Zahlen manipulieren
Zahlen lügen nicht! Diese angebliche Wahrheit machen sich viele zunutze – vor allem Politik und Wirtschaft, lassen sich doch hinter scheinbar objektiven Zahlen die wahren Interessen und Ziele “wissenschaftlich” verbergen.

Ob Bluthochdruck oder Blutzucker – die letzten Jahre wurden die Grenzwerte immer wieder gesenkt. Zur Freude der Pharmaindustrie, die auf diese Weise zu Millionen neuer Patienten kommt. Und der medizinische Nutzen ist längst nicht so eindeutig, wie man der Öffentlichkeit suggeriert, basieren die Zahlen doch oft auf fragwürdigen Studien, die interessengesteuert entstanden sind, sagt der weltweit anerkannte Risikoforscher Prof. Gerd Gigerenzer.

“Wir sollten aber nicht nur beklagen, dass man uns mit Zahlen manipuliert. Wir brauchen auch Ärzte, die wissen, wie Grenzwerte entstehen und was sie tatsächlich bedeuten”, fordert Gigerenzer.

Nur ein Beispiel von vielen, wie Wirtschaft oder Politik den Menschen ein X für ein U verkaufen. Ob Cholesterin oder Bevölkerungsprognosen mit Arbeitskräftemangel samt Rentenlücke – täglich wird die Öffentlichkeit mit einer Datenflut überschüttet. Doch kann man den Zahlen wirklich vertrauen? Woher kommen sie? Welche Interessen stecken dahinter und wie wird getrickst? Zahlen, Daten, Diagramme nach Interessenlage? Wie kommen Versicherer zum Beispiel auf Lebenserwartungen von 115 Jahren bei ihren Prämienberechnungen?

Diese Dokumentation begibt sich auf eine Suche nach der Wahrheit im “Land der Lügen”. Zeigt, mit welchen Tricks getäuscht und manipuliert wird. Und worauf man in Zukunft achten sollte, wenn man nicht im Zahlenmeer ertrinken will. Denn ohne Glaubwürdigkeit haben die besten Zahlen und die schönsten Statistiken jeden Wert verloren.

Ein Film von Tilman Achtnich

Online auch auf Youtube verfügbar:

—————-

Am 9. Juni 2016 können sich wieder Journalisten kostenlos über den Klimawandel “informieren”. Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) warb in einer Pressemitteilung auf idw für die Veranstaltung in Hannover:

Journalistenworkshop “Klimawandel in Norddeutschland”

Christian Schlag Stab Direktor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)

Einladung zum Journalisten-Workshop zu Extremwetter, Risikovorsorge und Strategien für weniger Treibhausgase | 9. Juni 2016 | Hannover

Termin: 9. Juni 2016, 10.00 Uhr bis 15.00 Uhr
Ort: Werkhof Hannover Nordstadt, Schaufelder Straße 11, 30167 Hannover

Deutschland hat immer mehr mit den Folgen des Klimawandels zu kämpfen, wie Studien des Deutschen Wetterdienstes zeigen. Steigende Temperaturen, feuchtere Winter und häufigere Wetterextreme wirken sich zunehmend auf die deutsche Gesellschaft aus. Mehr Hitzetage führen zu höheren Gesundheitsrisiken, da die Hitze Menschen stark belasten kann. Städte sind besonders betroffen, weil sie sich im Sommer stärker aufheizen als das Umland. Und auch Starkregen kann in dicht besiedelten Räumen große Schäden anrichten.

• Was bedeuten die Szenarien der Klimaforschung für Norddeutschland?
• Lässt sich der Klimawandel abmildern?
• Wo werden welche Wetterextreme häufiger vorkommen und mit welchen Konsequenzen?
• Wie sind Kommunen, Unternehmen und die Politik auf den Klimawandel vorbereitet und was kann jede/r Einzelne tun?

Weiterlesen auf idw.

Steigende Temperaturen in Deutschland? Ja und nein. Siehe:

Feuchtere Winter? Kann sein. Aber ist das schlimm? Bei den Extremniederschlägen sind jedenfalls keine Auffälligkeiten zu vermelden:

Häufigere Wetterextreme? Wohl kaum:

Kann man sich auf die Inhalte des Workshops verlassen, wenn bereits in der Ankündigung irreführende Angaben gemacht werden?

—————-

Die Wissenschaftliche Abteilung der Französischen Botschaft in der Bundesrepublik Deutschland gab am 9. Mai 2016 per Pressemitteilung bekannt:

Ségolène Royal startet die Initiative “100 Projekte für das Klima”

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Die Ministerin für Umwelt, Energie und Meeresangelegenheiten, zuständig für die internationale Klimapolitik, Ségolène Royal, startete im Rahmen der Umweltkonferenz in Paris am 25. April 2016 eine neue Internet-Plattform, mit der die weltweit 100 innovativsten Bürgerinitiativen für das Klima gefördert werden sollen.

Die dreisprachige Plattform 100projetspourleclimat.gouv.fr stellt die Initiativen, Engagements und Lösungen vor, die von Bürgern aus der ganzen Welt zum Thema Kampf gegen den Klimawandel eingereicht wurden. Die auf dieser Plattform veröffentlichten Lösungen umfassen alle Bereiche des Kampfes gegen den Klimawandel: Projekte zur Verringerung der Treibhausgasemissionen und zur Anpassung an den Klimawandel, zum Schutz der Gesundheit, zum Erhalt der Biodiversität, zur Entwicklung von Frühwarnsystemen etc. Die Bürger sind weltweit dazu aufgerufen, ihre Projekte in einer der drei Sprachen (Französisch, Englisch und Spanisch) bis zum 6. Juni 2016 einzureichen. Vom 6. Juni bis zum 6. Juli 2016 können die Bürger dann ihre Favoriten auswählen. Nach der Abstimmung der Internetnutzer werden die 100 Projekte mit den meisten Stimmen von Ségolène Royal zum Sieger gekürt. Diese werden bis zur COP22 im November in Marrakesch betreut und gefördert.

Quellen:
“Ségolène Royal lance l’opération 100 projets pour le climat”, Pressemitteilung des Umweltministeriums, 25.04.2016 – http://www.developpement-durable.gouv.fr/Segolene-Royal-lance-l-operation.html

“100 projets pour le climat”, Pressemitteilung des Umweltministeriums, 25.04.2016, http://100projetspourleclimat.gouv.fr/fr/

Natürlich haben wir es uns nicht nehmen lassen, unser Kartierprojekt zur Mittelalterlichen Wärmeperiode dort einzureichen. Mal sehen, ob es zugelassen wird…

 

Panikmache zahlt sich nicht mehr aus: Klimaalarmist John Church wird von der australischen Regierung gekündigt

Die Webseite ClimateChangePredictions.org hat sich zur Aufgabe gemacht, Vorhersagen zum Klimawandel aufzuzeichnen, um sie mit der realen Entwicklung abzugleichen. Ein schönes Beispiel ist der Anstieg des Meeresspiegels. Aktuell steigt das Meer um 2-3 mm pro Jahr, was bei gleichbleibendem Trend bis zum Ende des Jahrhunderts 25 cm ausmachen würde. Das hält jedoch einige Zeitgenossen nicht davon ab, mit sehr viel höheren Anstiegsbeträgen in der Öffentlichkeit um Aufmerksamkeit zu buhlen. Eine hochinteressante Auflistung aller Prognosen finden Sie auf der genannten Webseite. So prognostiziert der australische Klimaforscher John Church 3 m bis 2100.

Angesichts dieses unerträglichen Klimaalarmismus hat die australische Regierung nun die Reißleine gezogen.Während sich Church auf einem Forschungsschiff auf halber Strecke zwischen der Antarktis und Neuseeland befand, wurde er von der australischen Forschungsbehörde CSIRO kurzerhand darüber unterrichtet, dass er “verzichtbar” sei, er seine Stelle verlieren wird. Ein überfälliges Zeichen dafür, dass ungebremster Klimaalarm nicht mehr länger tolerierbar ist. Die Gesellschaft hat Anspruch auf ausgewogene Wissenschaft. Für extreme, aktivistische Ansichten darf es keinen Platz mehr geben. Der Sydney Morning Herald berichtete am 14. Mai 2016:

Global sea-level expert John Church made to walk the plank by CSIRO
For John Church, a leading authority on sea-level rise caused by global warming, there was much that was fitting – and yet callous – about being sacked at sea. The veteran scientist was well into one of dozens of research voyages he had taken since joining CSIRO as a post doctoral student in 1979. His vessel, the RV Investigator, was midway between Antarctica and New Zealand and steaming north on the 170 degree longitude when he received Thursday’s call to tell him he was “potentially redundant”.

Weiterlesen im Sydney Morning Herald

Die Trennung von Church ist Teil einer großen Entschlankungskur, in deren Zuge hunderte von Stellen aus den Klimawissenschaften in andere hochrelevante Forschungszweige überwechseln. In Deutschland sind wir noch weit von diesem Punkt entfernt. Im Gegenteil. Das staatlich geförderte und klimaaktivistisch angehauchte IASS-Institut Potsdam sucht derzeit per Stellenanzeige auf stepstone.de einen Wissenschaftlichen Mitarbeiter:

Das Institute for Advanced Sustainability Studies e.V. (IASS) in Potsdam ist eine vom Bundesministerium für Bildung und Forschung und vom Land Brandenburg geförderte Einrichtung und widmet sich in einer ganzheitlichen Form transdisziplinär und international der Erforschung des Klimawandels, der Komponenten des Erdsystems und der Nach­haltigkeit. Weitere Informationen unter: www.iass-potsdam.de.

Das IASS sucht zum nächstmöglichen Zeitpunkt eine/n

Wissenschaftliche/n Referentin/Referenten
der Direktorin Prof. Dr. Patrizia Nanz

Kennziffer DIR-2016-04

Aufgabengebiet:

  • Strategische Unterstützung und Beratung der wissenschaftlichen Direktorin in deren Funktion als Mitglied des Vorstandes sowie bei deren sämtlichen wissenschaftlichen und forschungspolitischen Aufgaben und Tätigkeitsfeldern
  • Strategisches, konzeptionelles und inhaltliches Erarbeiten von Kommunikations- und Dialogkonzepten zwischen Vorstand und Mitarbeiterschaft, einschließlich der Mitwirkung an interner Teamentwicklung und an der Optimierung von internen Kom­mu­ni­kations­abläufen
  • Strategische, konzeptionelle und inhaltliche Entwicklung von Konzepten zur Stärkung und Weiterentwicklung der Kontaktpflege zwischen dem Vorstand und externen Partnern aus Politik, Wirtschaft und Zivilgesellschaft
  • Konzeptionelle und inhaltliche Entwicklung von Umsetzungsstrategien der Ergebnisse der Nachhaltigkeitsforschung an den Schnittstellen zu Politik, Wirtschaft und Nicht­regierungs­organisationen
  • Mitwirkung an der Umsetzung transdisziplinärer co-kreativer Veranstaltungen mit Stake­holdern

Einstellungsvoraussetzungen:

  • Universitärer Hochschulabschluss, (bevorzugt) abgeschlossene Promotion

Anforderungen:

  • Einschlägige Kenntnis der interdisziplinären Forschung, insbesondere in den Bereichen Politikwissenschaft, Partizipationsforschung und politische Theorie
  • Vertrautheit mit den Zielen und Methoden der Nachhaltigkeits- und Transformations­forschung
  • Langjährige Berufserfahrung in nationalen und internationalen Forschungsprojekten im Kontext der Nachhaltigkeitsforschung
  • Erfahrung in der Konzeption und Moderation von Bürger- und Stakeholderdialogen
  • Fähigkeit, sich in einem internationalen Umfeld zu bewegen; Englisch als Arbeitssprache
  • Exzellente kommunikative Fähigkeiten
  • Fähigkeit zu eigenständigem und selbststrukturiertem Arbeiten, Belastbarkeit
  • Bereitschaft zu Dienstreisen

Wir bieten Ihnen ein interessantes und abwechslungsreiches Aufgabengebiet in einem jungen, interdisziplinären Team und ein attraktives, internationales Arbeitsumfeld mit gutem Arbeitsklima.

Weiterlesen auf stepstone.de.

Bei der Erwähnung von “…mit gutem Arbeitsklima” muss man schon etwas schmunzeln, wenn das Hauptziel der Stelle ist, das Klima möglichst schlecht aussehen zu lassen.

 

Forschergruppe um Michael Mann: Es könnte noch bis zu zwanzig Jahre dauern, bis die Erwärmung wieder kräftig anzieht

In Diskussionen offenbaren Klimaaktivisten immer wieder erschreckende Wissenslücken. Unglaublich aber wahr: Es gibt immer noch Klimakämpfer, die nicht mitbekommen haben, dass die legendäre Hockeystick-Kurve nicht mehr existiert, von Michael Mann einige Jahre später selber aus dem Verkehr gezogen und durch eine realistischere Temperaturkurve für die vergangenen 1000 Jahre ersetzt worden ist. Mindestens genauso schlimm ist das Beharren darauf, es gäbe in den letzten anderthalb Jahrzehnten keinen Erwärmungshiatus. Dieser Irrglaube hat sich in den Hirnen offenbar tief festgesetzt. Hiatus bedeutet dabei auch nicht unbedingt komplette Erwärmungspause, sondern eine starke Verlangsamung, auf englisch “Slowdown”. Prognostiziert wurde eine Erwärmung von 0,2°C pro Jahrzehnt, eingetroffen ist sehr viel weniger.

Die Wissenschaft hat den Hiatus bzw. Slowdown bereits lange akzeptiert, da wirkt der einsame Kampf einiger Klimaaktivisten schon ziemlich lächerlich. Wer es immer noch nicht glauben wollte, konnte es am 11. Mai 2016 in der Mitgliederzeitschrift Eos der American Geophysical Union (AGU) schwarz auf weiß nachlesen:

Was the Recent Slowdown in Surface Warming Predictable?
The temporary deceleration in warming across the Northern Hemisphere earlier this century could not have been foreseen by statistical forecasting methods, a new study concludes.

From the early 2000s to the early 2010s, there was a temporary slowdown in the large-scale warming of Earth’s surface. Recent studies have ascribed this slowing to both internal sources of climatic variability—such as cool La Niña conditions and stronger trade winds in the Pacific—and external influences, including the cooling effects of volcanic and human-made particulates in the atmosphere.

Several studies have suggested that climate models could have predicted this slowdown and the subsequent recovery several years ahead of time—implying that the models can accurately account for mechanisms that regulate decadal and interdecadal variability in the planet’s temperature. To test this hypothesis, Mann et al. combined estimates of the Northern Hemisphere’s internal climate variability with hindcasting, a statistical method that uses data from past events to compare modeling projections with the already observed outcomes.

Weiterlesen in Eos.

Hockeystick-Autor Michael Mann räumt den Hiatus/Slowdown offen ein. Im Abstract der Arbeit, die im April 2016 in den Geophysical Research Letters erschien, werden die pazifischen und atlantischen Ozesanzyklen (PDO, AMO) als Ursache der fehlenden Erwärmung genannt:

Predictability of the recent slowdown and subsequent recovery of large-scale surface warming using statistical methods
The temporary slowdown in large-scale surface warming during the early 2000s has been attributed to both external and internal sources of climate variability. Using semiempirical estimates of the internal low-frequency variability component in Northern Hemisphere, Atlantic, and Pacific surface temperatures in concert with statistical hindcast experiments, we investigate whether the slowdown and its recent recovery were predictable. We conclude that the internal variability of the North Pacific, which played a critical role in the slowdown, does not appear to have been predictable using statistical forecast methods. An additional minor contribution from the North Atlantic, by contrast, appears to exhibit some predictability. While our analyses focus on combining semiempirical estimates of internal climatic variability with statistical hindcast experiments, possible implications for initialized model predictions are also discussed.

Bei aller Freude wundert man sich aber schon über die Behauptung, die pazifische Ozeanzyklen wären unverhersehbar. Das ist natürlich Quatsch, denn die PDO folgt allgemein einem klaren 60-Jahreszyklus, der die Temperaturnen systematisch beeinflusst. Die bestehenden Vorhersagemethoden berücksichtigen dies noch viel zu wenig. Das gleiche Forscherteam hatte übrigens bereits ein Jahr zuvor (Februar 2015) in Science den Hiatus/Slowdown durch Ozeanzyklen erklärt. Der ORF berichtete damals:

Kühler Pazifik bremst globale Erwärmung
Trotz Klimawandels sind die globalen Temperaturen in den vergangenen 15 Jahren kaum gestiegen. Die Ursache dafür ist in den Ozeanen zu finden, schreiben US-Forscher in einer Studie. Ein neuerlicher Anstieg der Temperaturen sei zu erwarten – spätestens in zwanzig Jahren.

Eine echte Offenbarung. Es könnte gemäß Ozeanzyklenverlauf noch zwanzig Jahre dauern, bis die Erwärmung wieder kräftig anzieht. Ob die Politik diese Aussage mitbekommen hat? Hier die entsprechende Pressemitteilung der Penn State University:

Interaction of ocean oscillations caused ‘false pause’ in global warming

The recent slowdown in climate warming is due, at least in part, to natural oscillations in the climate, according to a team of climate scientists, who add that these oscillations represent variability internal to the climate system. They do not signal any slowdown in human-caused global warming.

“We know that it is important to distinguish between human-caused and natural climate variability so we can assess the impact of human-caused climate change on a variety of phenomena including drought and weather extremes,” said Michael Mann, Distinguished Professor of Meteorology, Penn State. “The North Atlantic and North Pacific oceans appear to be drivers of substantial natural, internal climate variability on timescales of decades.”

Mann, Byron A. Steinman, assistant professor of geological sciences, University of Minnesota-Duluth and a former Penn State National Science Foundation postdoctoral fellow and Penn State researcher Sonya K. Miller looked at a combination of real-world observational data and state-of-the-art climate model simulations used in the most recent report of the Intergovernmental Panel on Climate Change to understand the competing contributions to climate variability in the Northern Hemisphere during the historic era. They report their results today (Feb 26) in Science.

The Atlantic Multidecadal Oscillation (AMO) describes how North Atlantic sea-surface temperatures tend to oscillate with a periodicity of about 50 to 70 years. The Pacific Decadal Oscillation (PDO) varies over a broader range of timescales. The researchers looked only at the portion of the PDO that was multidecadal — what they term the Pacific multidecadal oscillation (PMO).

Using a wide variety of climate simulations, the researchers found that the AMO and PMO are not significantly correlated; they are not part of the global “stadium wave” oscillation, as some researchers had claimed. What they found was that the Northern Hemisphere was warming more slowly, not because of the AMO — which has been relatively flat — but because of a sharply down-trending PMO.

The researchers conclude that the down-trending PMO and the unusual slowing of warming over the past decade are tied to heat burial beneath the tropical Pacific and a tendency for sustained La Niña type conditions. While there is paleoclimate data suggesting that this type of response could come from subtle features of climate change itself that climate models do not currently capture, the researchers note that the most likely explanation is the random excursions of the AMO.

“Our findings have strong implications for the attribution of recent climate changes,” said Mann. “Internal multidecadal variability in Northern Hemisphere temperatures likely offset anthropogenic warming over the past decade.”

The researchers conclude that given past historical patterns of variation in the AMO and PMO, this situation will likely reverse and add to human induced warming in the future.

Dabei ist es jedoch wohl erher Wunschdenken, dass AMO und PDO erratisch und ungekoppelt schwingen. Judith Curry hatte bereits überzeugend darlegen können, dass die Ozeanzyklen global zusammenhängen (siehe “La Ola im Ozean: Die klimazyklische Stadionwelle“).

Die von Mann und Kollegen behauptete Unvorhersagbarkeit des Hiatus/Slowdown wird von Kollegen angezweifelt. Eine Gruppe um Yoshimitsu Chikamoto veröffentlichte im April 2015 in Nature Communications eine Arbeit, die auf Basis der Entwicklung im Pazifik eine mehrjährige Prognose vorstellt. Hier die entsprechende Pressemitteilung der University of Hawaii – SOEST:

Extending climate predictability beyond El Niño

Tropical Pacific climate variations and their global weather impacts may be predicted much further in advance than previously thought, according to research by an international team of climate scientists from the USA, Australia, and Japan. The source of this predictability lies in the tight interactions between the ocean and the atmosphere and among the Atlantic, the Pacific and the Indian Oceans. Such long-term tropical climate forecasts are useful to the public and policy makers.

At present computer simulations can predict the occurrence of an El Niño event at best three seasons in advance. Climate modeling centers worldwide generate and disseminate these forecasts on an operational basis. Scientists have assumed that the skill and reliability of such tropical climate forecasts drop rapidly for lead times longer than one year.

The new findings of predictable climate variations up to three years in advance are based on a series of hindcast computer modeling experiments, which included observed ocean temperature and salinity data. The results are presented in the April 21, 2015, online issue of Nature Communications.

“We found that, even three to four years after starting the prediction, the model was still tracking the observations well,” says Yoshimitsu Chikamoto at the University of Hawaii at Manoa International Pacific Research Center and lead author of the study. “This implies that central Pacific climate conditions can be predicted over several years ahead.”

“The mechanism is simple,” states co-author Shang-Ping Xie from the University of California San Diego. “Warmer water in the Atlantic heats up the atmosphere. Rising air and increased precipitation drive a large atmospheric circulation cell, which then sinks over the Central Pacific. The relatively dry air feeds surface winds back into the Atlantic and the Indian Ocean. These winds cool the Central Pacific leading to conditions, which are similar to a La Niña Modoki event. The central Pacific cooling then strengthens the global atmospheric circulation anomalies.”

“Our results present a paradigm shift,” explains co-author Axel Timmermann, climate scientist and professor at the University of Hawaii. “Whereas the Pacific was previously considered the main driver of tropical climate variability and the Atlantic and Indian Ocean its slaves, our results document a much more active role for the Atlantic Ocean in determining conditions in the other two ocean basins. The coupling between the oceans is established by a massive reorganization of the atmospheric circulation.”

The impacts of the findings are wide-ranging. “Central Pacific temperature changes have a remote effect on rainfall in California and Australia. Seeing the Atlantic as an important contributor to these rainfall shifts, which happen as far away as Australia, came to us as a great surprise. It highlights the fact that on multi-year timescales we have to view climate variability in a global perspective, rather than through a basin-wide lens,” says Jing-Jia Luo, co-author of the study and climate scientist at the Bureau of Meteorology in Australia.

“Our study fills the gap between the well-established seasonal predictions and internationally ongoing decadal forecasting efforts. We anticipate that the main results will soon be corroborated by other climate computer models,” concludes co-author Masahide Kimoto from the University of Tokyo, Japan.

 

Sonne, Mond und Sterne: Welchen Einfluss üben Planeten auf das Erdklima aus?

Jeden Tag schiebt der Mond zwei Flutberge über den Planeten. An der nordamerikanischen Ostküste in der Bay of Fundy hebt und senkt sich das Meer dabei um satte 13 Meter. Da liegt es nahe, dass die Gezeitenkräfte von Mond, Planeten und Sonne auch bei der irdischen Klimagestaltung eine Rolle spielen. Nicola Scafetta, der bereits in unserem Buch “Die kalte Sonne” als Gastautor dabei war, publizierte am 15. Mai 2016 in Advances in Space Research eine vergleichende Analyse zwischen den Planetenbewegungen und der Temperaturentwicklug auf der Erde während der vergangenen 165 Jahre. Dabei stieß Scafetta auf große Ähnlichkeiten und fand in den Datensätze immer wieder die Peridoden 20 und 60 Jahre. Die Erde und das Erdklima als Bestandteil des Planetensystems, ein nicht ganz abwegiger Gedanke. Hier die Kurzfassung der Arbeit:

High resolution coherence analysis between planetary and climate oscillations
This study investigates the existence of a multi-frequency spectral coherence between planetary and global surface temperature oscillations by using advanced techniques of coherence analysis and statistical significance tests. The performance of the standard Matlab mscohere algorithms is compared versus high resolution coherence analysis methodologies such as the canonical correlation analysis. The Matlab mscohere function highlights large coherence peaks at 20 and 60-year periods although, due to the shortness of the global surface temperature record (1850–2014), the statistical significance of the result depends on the specific window function adopted for pre-processing the data. In fact, window functions disrupt the low frequency component of the spectrum. On the contrary, using the canonical correlation analysis at least five coherent frequencies at the 95% significance level are found at the following periods: 6.6, 7.4, 14, 20 and 60 years. Thus, high resolution coherence analysis confirms that the climate system can be partially modulated by astronomical forces of gravitational, electromagnetic and solar origin. A possible chain of the physical causes explaining this coherence is briefly discussed.

Querdenker wie Scafetta haben es nicht leicht. Viele Kollegen hegen Skepsis gegenüber den vorgeschlagenen planetaren Mechanismen. Bereits 2014 ist Scafetta daher in die Offensive gegangen und versuchte in einem Beitrag in Astrophysics and Space Science die Argumente seiner Gegner zu klären. Hier die Kurzfassung:

Discussion on the spectral coherence between planetary, solar and climate oscillations: a reply to some critiques
During the last few years a number of works have proposed that planetary harmonics regulate solar oscillations. Also the Earth’s climate seems to present a signature of multiple astronomical harmonics. Herein I address some critiques claiming that planetary harmonics would not appear in the data. I will show that careful and improved analysis of the available data do support the planetary theory of solar and climate variation also in the critiqued cases. In particular, I show that: (1) high-resolution cosmogenic 10Be and 14C solar activity proxy records both during the Holocene and during the Marine Interglacial Stage 9.3 (MIS 9.3), 325–336 kyear ago, present four common spectral peaks (confidence level ⪆95 %) at about 103, 115, 130 and 150 years (this is the frequency band that generates Maunder and Dalton like grand solar minima) that can be deduced from a simple solar model based on a generic non-linear coupling between planetary and solar harmonics; (2) time-frequency analysis and advanced minimum variance distortion-less response (MVDR) magnitude squared coherence analysis confirm the existence of persistent astronomical harmonics in the climate records at the decadal and multidecadal scales when used with an appropriate window lenght (L≈110 years) to guarantee a sufficient spectral resolution to solve at least the major astronomical harmonics. The optimum theoretical window length deducible from astronomical considerations alone is, however, L⪆178.4 years because the planetary frequencies are harmonics of such a period. However, this length is larger than the available 164-year temperature signal. Thus, the best coherence test can be currently made only using a single window as long as the temperature instrumental record and comparing directly the temperature and astronomical spectra as done in Scafetta (J. Atmos. Sol. Terr. Phys. 72(13):951–970, 2010) and reconfirmed here. The existence of a spectral coherence between planetary, solar and climatic oscillations is confirmed at the following periods: 5.2 year, 5.93 year, 6.62 year, 7.42 year, 9.1 year (main lunar tidal cycle), 10.4 year (related to the 9.93–10.87–11.86 year solar cycle harmonics), 13.8-15.0 year, ∼20 year, ∼30 year and ∼61 year, 103 year, 115 year, 130 year, 150 year and about 1000 year. This work responds to the critiques of Cauquoin et al. (Astron. Astrophys. 561:A132, 2014), who ignored alternative planetary theories of solar variations, and of Holm (J. Atmos. Sol. Terr. Phys. 110–111:23–27, 2014a), who used inadequate physical and time frequency analyses of the data.

Nicola Scafetta steht mit seinem Modell zur planetaren Klimabeinflussung bei weitem nicht alleine da. Im Jahr 2014 erschien sogar ein Sonderband in der Fachzeitschrift Pattern Recognition in Physics mit dem Titel:

Pattern in solar variability, their planetary origin and terrestrial impacts

Darin enthalten ist unter anderem ein Beitrag von J.-E. Solheim:

The sunspot cycle length – modulated by planets?
The Schwabe frequency band of the sunspot record since 1700 has an average period of 11.06 yr and contains four major cycles, with periods of 9.97, 10.66, 11.01 and 11.83 yr. Analysis of the O–C residuals of the timing of solar cycle minima reveals that the solar cycle length is modulated by a secular period of about 190 yr and the Gleissberg period of about 86 yr. Based on a simple harmonic model with these periods, we predict that the solar cycle length will in average be longer during the 21st century. Cycle 24 may be about 12 yr long, while cycles 25 and 26 are estimated to be about 9 and 11 yr long. The following cycle is estimated to be 14 yr long. In all periods during the last 1000 yr, when the solar cycle length has increased due to the 190 yr cycle, a deep minimum of solar activity has occurred. This is expected to re-occur in the first part of this century. The coherent modulation of the solar cycle length over a period of 400 yr is a strong argument for an external tidal forcing by the planets Venus, Earth, Jupiter and Saturn, as expressed in a spin-orbit coupling model.

Interessant auch dieser Artikel aus dem selben Band von I. R. G. Wilson:

The Venus–Earth–Jupiter spin–orbit coupling model
A Venus–Earth–Jupiter spin–orbit coupling model is constructed from a combination of the Venus–Earth–Jupiter tidal-torquing model and the gear effect. The new model produces net tangential torques that act upon the outer convective layers of the Sun with periodicities that match many of the long-term cycles that are found in the 10Be and 14C proxy records of solar activity.

Siehe auch den folgenden Beitrag von 2012 aus dem Blog Astro-Climate-Connection:

Jupiter Tidal Torque Modell

Ebenfalls in Pattern Recognition in Physics erschien 2013 der folgende Artikel von J.-E. Solheim:

Signals from the planets, via the Sun to the Earth (weiterlesen …)

Die Sonne im April 2016 und El Nino-klimatisch

Von Frank Bosse und Fritz Vahrenholt

Unser Zentralgestirn war im April auch für die ruhigen Verhältnisse des gesamten Solaren Zyklus ( Solar Cycle-SC) besonders wenig aktiv. Die ausgewiesene SSN (SunSpotNumber) von 38,0 entspricht nur 50% der in diesem Monat üblichen. Der recht eindrucksvolle Einbruch der Aktivität ist auch sehr gut im Diagramm zu sehen:

Abb.1: Der Verlauf der Sonnenfleckenaktivität im seit Dezember 2008 laufenden Zyklus 24 (rot) im Vergleich zu einem mittleren Zyklus (blau) und zum schon viele Monate recht ähnlichen Zyklus 5 ( schwarz).

 

Auch die Divergenz im Aufbau der polaren Felder der Sonne hat sich weiter erhöht.  Wir berichteten bereits im März darüber.    Die südpolaren Felder sind nun bereits nahezu 4mal so stark wie die sehr schwachen nordpolaren. So eine unterschiedliche Entwicklung gab es noch nie in diesem Stadium des Zyklus seit Beginn der Beobachtungen vor etwa 40 Jahren. Wir behalten das Phänomen im Auge und halten Sie auf dem Laufenden! Unser allmonatliches Diagramm mit den Vergleichen der bisher systematisch beobachteten Zyklen seit  März 1755 enthält diesmal eine Besonderheit:

Abb. 2: Die aufsummierten Anomalien der SSN aller Zyklen. Die Differenzen zwischen den einzelnen Monaten und dem Mittelwert aller Zyklen (blau in Abb. 1) bildet die Datengrundlage.

 

Mit der Berücksichtigung des April 2015 (Zyklusmonat 89) wird deutlich, dass der aktuelle Zyklus 24 in der Gesamtaktivität der Sonnenflecken nun niedriger abschneidet als der Zyklus 7 und der ereignete sich  zwischen 1823 und 1833 während des Dalton Minimums. Unsere Vermutung aus dem Vormonat, dass dieses „Überholen“ nach unten passieren könnte, erfüllte sich also sehr schnell. In der aktuellen Rückschau ist die Fleckenaktivität unserer Sonne im SC24 also so niedrig wie seit 200 Jahren nicht mehr, seit dem Zyklus 6.

 

Der vergangene El Nino und das Klima

Die Abschiedsmelodien für den El Nino sind gesungen. Bereits im Februar 2016 berichteten wir von Prognosen  einer sich andeutenden  La Nina. Damals befand sich der El Nino noch in voller Ausprägung. Aktuell zeichnet sich der Umschwung in den Oberflächentemperaturen des äquatorialen Pazifiks schon sehr deutlich ab:

Abb. 3: Die Oberflächentemperaturen (Sea SurfaceTemperatures- SST) des Pazifiks.  Quelle: NOAA, vom 12.5.2016

 

In Abb. 3 ist bereits das kühle mäandernde Band am Äquator zu erkennen, ein Vorbote der sich entwickelnden  La Nina. Die neuesten Modellvorhersagen haben die Wahrscheinlichkeit für eine La Nina bereits im Juni/Juli  auf über 50% heraufgesetzt. In den Wasserschichten nur etwa 100m unter der Oberfläche lauert bereits sehr viel um bis zu  4 °C kühleres Wasser als normal und der nun recht heftig wehende Passatwind wird es an die Oberfläche befördern.

 

Abb. 4: Die Temperaturanomalien der tieferen Wässer unter dem Äquator des Pazifiks. Quelle: TAO für den 13. 5. 2016.

 

Zeit für ein kleines Resümé des vergangenen warmen El Nino-Events.

Wie stark war der El Nino im Vergleich zu dem von 1998?

Ein Blick auf den Indikator der SST im tropischen Ostpazifik Nino 3,4 zeigt kaum Unterschiede:

Abb. 5: der taggenaue Verlauf von Nino 3,4 seit jeweils dem 1. Januar der entsprechenden Jahre 2015 bzw. 1997.

 

Weitere oft verwendete  Kriterien wie der ONI-Index (2015 etwas stärker) und der Index MEI (1997 etwas stärker) zeigen kaum divergierende Amplituden zwischen 1997/98 und 2014/15 an. Wir gehen davon aus, dass beide El Nino- Ereignisse gleich stark waren.

Welche globalen Wirkungen  gingen von den  beiden El Ninos aus?

Wir beschränken uns auf die Betrachtung der globalen SST:

Abb. 6: Die SST- Anomalien global seit 1996 nach Reynolds (NOAA) bis einschließlich April 2016.

 

Auffällig ist der Hub ab 2014. Schon bei oberflächlichem Betrachten erkennt man das Stagnieren nach 2001 (der El Nino nach 1997 wurde durch eine La Nina in 1998-2000 abgelöst). Der relativ „harmlose“ El Nino 2010 hatte ebenfalls eine La Nina zur Folge. Ab 2014 dann ein Zuwachs mit dem Peak des starken El Ninos 2015/16 noch darauf gesetzt. Während starker El Ninos wird für kurze Zeit die gesamte andere interne Variabilität unseres Klimas  durch das Ereignis selbst weitgehend überstrahlt. Wenn also die El Ninos in 1997/98 und 2015/16 etwa gleich stark waren dann können wir die Unterschiede in den Auswirkungen nahezu ausschließlich als  von den äußeren Antrieben (das IPCC spricht von „Forcings“ wie Treibhausgase, Ozon usw.)  abhängig betrachten. In Abb. 3 ist zu erkennen, dass die El Ninos ab März 1997 bzw. 2015 im Verlauf praktisch kaum zu unterscheiden waren.  Die Auswirkungen auf die globalen SST unterscheiden sich jedoch  um 0,2 °C:

Abb. 7: Die Differenz („Delta SST“ )der globalen SST monatweise während der starken El Ninos wie sie gemessen wurden (blau) und wie sie das Modellmittel CMIP5 (rot) erwartet.

 

In Abb. 7 wurde die beobachtete Differenz der SST mit der Modellgröße „tos“  (so werden in der Modellwelt die SST bezeichnet) des Emissionsszenarios RCP 8.5 deshalb verglichen, weil im genannten Zeitraum die Forcings genau diesem Szenario gut folgten, vgl.  Outten et al. (2015). Das Mittel über alle Monate beträgt beobachtet 0,2 °C und modelliert 0,36 °C, also 80% mehr als real.  Das Modellmittel  und die Beobachtungen hier sind  in beiden Fällen die Auswirkungen der „Forcings“. Zwischen 1997 und 2015 wurde der Zuwachs dieser zu nahezu  80% vom CO2- Gehalt der Atmosphäre  bestimmt, folgt man den Zahlen das IPCC. Auch hier zeigen die Modelle zu viel Erwärmung, sie reagieren wohl um etwa 30 % zu stark auf CO2.

Immer wieder erzielt man  ähnliche Ergebnisse wenn man Beobachtungen auch der jüngsten Realität und der Modellwelt  gegenüber stellt. In letzter Zeit taten dies Nicholas Lewis in einem Artikel und auf einem etwas anderen Wege der Mitautor dieser Zeilen , die Größe „TCR“ ergibt sich aus Beobachtungen zu 1,2…1,4. Die Modelle, benutzt um die klimapolitischen Ziele zu definieren, gehen von Werten um 2 aus. Die sich ergebenden Unterschiede ab etwa 2040 sind gewaltig, ebenso wie die notwendigen eingesetzten Mittel zur „Bekämpfung“  der sehr wahrscheinlich zu hoch gerechnete CO2- Empfindlichkeit unseres Klimas.   Wenn Sie also hier und da Berichte verfolgen über die Rekorde der globalen Temperaturen: Die Modelle sagten während des El Ninos noch viel höhere Werte voraus und gewichten das „Klimagas CO2“ zu hoch.

 

Wenn als Redakteure getarnte Aktivisten gemeinsame Sache mit der Versicherungsindustrie machen: Das Märchen von den Klimawandel-Waldbränden

Joachim Wille ist Klimaaktivist und Journalist in einer Person. Keine gute Kombination. Jedenfalls nicht für die meisten seiner Leser, die sich lieber eine ausgewogene Berichterstattung gewünscht hätten. Wille schreibt regelmäßig für die Klimaktivisten-Platfform Klimaretter. Er schreibt aber auch als freier Autor für die Frankfurter Rundschau (FR), die es dabei versäumt, Wille als Aktivisten zu kennzeichnen. Das ist höchst ärgerlich. Zuletzt passiert in der FR am 12. Mai 2016. Dabei machte sich Wille ziemlich lächerlich als er schrieb:

Brände in Kanada: „Höchstwahrscheinlich“ Klimawandel
Von 

Die Brände in Kanada richten Schäden in Milliardenhöhe an. Ein Zusammenhang mit der Klimaerwärmung ist so gut wie sicher. Umgedacht wird jedoch noch immer nicht. Ein Kommentar.

[...] Ausgerechnet die Erdöl-Provinz Alberta hat es erwischt. Das müsste ein Warnzeichen sein, denn Experten sehen einen Zusammenhang mit der Klimaerwärmung. Alberta erlebt seit Monaten ein ungewöhnlich warmes und trockenes Wetter. Die Waldbrandsaison begann schon Anfang März, weil im Winter wenig Schnee gefallen war, und im Mai stiegen die Temperaturen bereits auf 30 Grad und mehr. Der oberste Risikoforscher der Münchner Rück, Peter Hoppe, sagte, die Häufung von Hitzephasen und das steigende Waldbrand-Risiko in Kanada hänge nach aktuellen Studien „höchstwahrscheinlich“ mit dem Klimawandel zusammen.

Ein geniales Bild: Ölfelder die durch ihr frevelhaftes Pumpen die Waldbrände selbst verschuldet haben. Das Ganze angewürzt durch Kumpelei mit der interessierten Extremwetter-Versicherungsindustrie. Aktivismus hoch drei. Das Schlimmste daran ist, dass wissenschaftliche Studien das genaue Gegenteil zeigen: Kein Langzeittrend bei den Waldbränden (siehe unseren Blogartikel “Waldbrände und Klimawandel: Eine Analyse mit überraschendem Ergebnis“).Das gilt insbesondere für Kanada, wie die Statistik der National Forestry Database zeigt:

Abbildungsquelle: National Forestry Database, Canada.

 

Hat es irgendwer gemerkt? Ja, Spiegel Online hat aufgepasst und enttarnte die schräge Aktivistendenke:

Katastrophe in Kanada: Die Mär von den Klimawandel-Waldbränden

In Kanada wüteten riesige Waldbrände – Schuld sei der Klimawandel, behaupten Forscher. Dabei sind andere Ursachen viel naheliegender.

Bei Naturkatastrophen gilt der Klimawandel gerne als Ursache. Während die Behauptung bei manchen Hitzewellen oder Sturmfluten gut belegt sein mag, erweist sie sich bei anderen aber als unpassend. Gerade gibt es Meldungen, fünf Pazifikinseln seien wegen der globalen Erwärmung versunken. Forscher sahen sich zu einer Richtigstellung gezwungen. Auch der Syrienkrieg, Hurrikane oder gleich “90 Prozent aller Naturkatastrophen” wurden irrtümlich dem Klimawandel angelastet. [...]

Hauptschuldiger ist vielmehr ein Tiefdruckgebiet, das für die Frühlingszeit ungewöhnlich weit nördlich lag. Mit seiner Drehung entgegen dem Uhrzeigersinn fächerte es tagelang warme, trockene Luft aus Südwesten bis in den Norden Albertas, wo es mehr als 30 Grad warm wurde – 17 Grad mehr als Anfang Mai üblich. Hinzu kam starker Wind, der die Flammen vor sich her trieb. Die selten Hitzewelle traf auf eine ungewöhnlich entwickelte Vegetation: Der Schnee war früh getaut, die Vegetation lag karg und trocken. Seit Dezember war nur halb so viel Niederschlag gefallen wie üblich. Das Wetter hatte eine Ursache: Der Klimaschurke El Niño war aufgezogen, seine pazifische Warmwasserflut ändert die Witterung auf der halben Welt. Kanada bringt er gewöhnlich Wärme und Trockenheit. So auch in diesem Jahr. Ob der Klimawandel El Niños befördert ist unklar.

Ganzen Artikel auf spiegel.de lesen.

Die Zeiten, als als Redakteure getarnte Aktivisten alles unwidersprochen behaupten konnten, scheinen vorbei zu sein. Und das ist gut so.

Der Blick in die aktuelle Literatur bringt weitere Erhellung. Laut einer Hamburger Max-Planck-Studie (Kloster et al. 2015) ist neben der Waldfeuchte vor allem auch das Brennstoffangebot bei der Entstehung und Häufigkeit von Waldbränden entscheidend.

Eine andere Studie (Zennaro et al. 2014) untersuchte die boreale Waldbrandhäufigkeit der letzten 2000 Jahre anhand eines grönländischen Eiskerns. Hochinteressant: Während der Mittelalterlichen Wärmeperiode gab es einen starken Anstieg der Waldbrände, ausgelöst durch Dürren. Andere waldbrandreiche Zeiten hingegen korrelierten mit Dürren in Zentral- und Nordasien, als der Monsunregen ausblieb. Wichtige Erkenntnis der Studie: Das 20./21. Jahrhundert bewegt sich noch voll und ganz im Bereich der natürlichen Schwankungsbreite hinsichtlich der Waldbrandhäufigkeit.

 

NASA: Tiefe Ozeanschichten haben sich in den vergangenen 10 Jahren nicht erwärmt. Ursache der globalen atmosphärischen Erwärmungspause bleibt weiter offen

Am 23. April 2016 berichtete Volker Mrasek, den wir auch aus dem Deutschlandfunk kennen, im SRF über das ARGO-Messnetz in den Weltozeanen, mit dem wichtige Informationen zum ozeanischen Wärmeinselinhalt (Ocean Heat Conent) gewonnen werden. In der Ankündigung der Sendung heißt es:

Argo Tauchroboter Messnetz
Wir wissen mehr über den Mond, als über die Ozeane, so hört man manchmal. Doch unbemerkt von der Öffentlichkeit füllt eine riesige Flotte von Tausenden von Mini-U-Booten diese Datenlücke. Argo heisst das Projekt, und es feiert gerade den 15-Geburtstag.

Ein interessanter Beitrag, der in der Sendung bei Minute 13:35 beginnt und hier online nachzuhören ist. Einziger Kritikpunkt: Im Beitrag wird so ganz lässig nebenbei die ziemlich gewagte These aufgestellt, das ARGO System hätte eindeutig bewiesen, dass die fehlende Wärme aus dem Temperatur-Hiatus gänzlich im Meer verschwunden wäre, das Rätsel somit endgültig gelöst wäre. Das ist natürlich murks und ein Schlag ins Gesicht all jener Klimaforscher, die noch immer auf der Suche nach einer guten Erklärung für den Hiatus sind. Siehe z.B. “Michael Mann, Ben Santer, Gerald Meehl: Erwärmungshiatus existiert und ist erklärungsbedürftig. Klimamodelle müssen auf den Prüfstand“.

Aber wir nehmen den SRF-Beitrag gerne zum Anlass, uns in Punkto Ozeanwärme auf den neuesten Stand zu bringen. Das haben wir letztmalig im August 2014 getan, als wir in der Tiefe des Ozeans eine gänzlich andere Geschichte entdeckten (siehe “Suche nach der angeblich im Ozean versunkenen Wärme endet mit Fehlschlag: Tiefe Meeresschichten kühlten sich in den letzten 20 Jahren ab“). Der Beitrag wurde auch auf The Hockeystick in englischer Sprache veröffentlicht.

Zunächst schauen wir bei Ole Humlum auf Climate4You vorbei, der die Temperaturentwicklung der Weltozeane für die obersten 700m geplottet hat:

 

Wie wir bereits in unserer Übersicht 2014 festgestellt hatten, gibt es in den oberen Wasserschichten in der Tat keinen Erwärmungshiatus. Die obersten 700m der Weltzozeane erwärmen sich seit Mitte der 1980er Jahre, nachdem sie sich zuvor leicht abgekühlt hatten. Am 19. Januar 2016 meldete die Webplattform Wissenschaft Aktuell:

Klimawandel: Ozeane heizen sich immer schneller auf
Etwa die Hälfte der zusätzlichen Wärme nahmen die Weltmeere in den vergangenen 20 Jahren auf [...] Doch heizten sich die Weltmeere besonders in den vergangenen beiden Jahrzehnten besonders schnell auf. Über dieses Ergebnis, das für zukünftige Klimamodelle von großer Bedeutung ist, berichten nun amerikanische Wissenschaftler in der Fachzeitschrift „Nature Climate Change“. „In jüngster Zeit haben sich die Ozeane substanziell erwärmt und das Wärmesignal reicht in immer tiefere Wasserschichten“, sagt Peter Gleckler vom Lawrance Livermore National Laboratory.

Ganzen Artikel auf Wissenschaft Aktuell lesen.

Bereits im Juli 2015 hatte die Süddeutsche Zeitung getitelt:

Meere heizen sich zu schnell auf

Aber weiß man das so genau, wenn das ARGO-Messnetz erst 15 Jahre alt ist? Und wie sieht es unterhalb von 700m aus? Kann die anhaltende Erwärmung der oberen 700m den Hiatus erklären? Wir begeben uns auf Spurensuche.

Im August 2014 erschien im Journal of Physical Oceanography ein Paper von Carl Wunsch und Patrick Heimbach, das den ozeanischen Wärmeinhalt der letzten zwei Jahrzehnte beschrieb.

Bidecadal Thermal Changes in the Abyssal Ocean
A dynamically consistent state estimate is used for the period 1992–2011 to describe the changes in oceanic temperatures and heat content, with an emphasis on determining the noise background in the abyssal (below 2000 m) depths. Interpretation requires close attention to the long memory of the deep ocean, implying that meteorological forcing of decades to thousands of years ago should still be producing trendlike changes in abyssal heat content. Much of the deep-ocean volume remained unobserved. At the present time, warming is seen in the deep western Atlantic and Southern Oceans, roughly consistent with those regions of the ocean expected to display the earliest responses to surface disturbances. Parts of the deeper ocean, below 3600 m, show cooling. Most of the variation in the abyssal Pacific Ocean is comparatively featureless, consistent with the slow, diffusive approach to a steady state expected there. In the global average, changes in heat content below 2000 m are roughly 10% of those inferred for the upper ocean over the 20-yr period. A useful global observing strategy for detecting future change has to be designed to account for the different time and spatial scales manifested in the observed changes. If the precision estimates of heat content change are independent of systematic errors, determining oceanic heat uptake values equivalent to 0.1 W m−2 is possibly attainable over future bidecadal periods.

Im Paper erteilen die beiden Spezialisten der Deutschlandfunk-Hypothese eine klare Absage. Es gibt noch viel zu wenig Daten, insbesondere aus den tiefen Ozeanschichten, um die fehlende atmosphärischen Erwärmung durch versunkene Ozeanwärme zu erklären:

Direct determination of changes in oceanic heat content over the last 20 years are not in conflict with estimates of the radiative forcing, but the uncertainties remain too large to rationalize e.g., the apparent “pause” in warming.

Im Oktober 2014 dann zwei weitere Paukenschläge. Llovel et al. und Durack et al. veröffentlichen in Nature Climate Change zwei Papers, die ebenfalls den Schluss zulassen, dass die Erwärmungspause an der Erdoberfläche nicht mit der Ozeanwärme gelöst werden kann. Während sich die oberen Wasserschichten schneller erwärmt haben als gedacht, kühlten sich die tiefen Wasserschichten unterhalb von 2 km überraschenderweise eher ab. In den Tiefen des Ozeans kann sich daher die vermisste Wärme nicht verstecken. Reporting Climate Science (via Judith Curry) hat die Papers zusammenfassend kommentiert:

The implication of this is that a build up of heat in the deep oceans is not the solution to the so called missing energy mystery that has puzzled climate scientists trying to match the observed heat build up on the planet with what the theory of global warming suggests should be happening. A number of climate scientists had previously suggested that heat is accumulating in the deep oceans and that this accounts for the missing energy.

An analysis of ocean data together with satellite measurements suggests that the warming rate for the top 700m of ocean in the southern hemisphere has been underestimated – at least from 1970 until the early 2000s when an array of measurement buoys, known as Argo, began to collect data.

Separately, an analysis of satellite measurements and ocean temperature data has revealed that that the deeper half of the ocean (below 2 km depth) has, on average, not warmed from 2005 to 2013 and may have cooled – in contrast to the prevailing view, based on sparse ship-based measurements, that had suggested deep ocean warming between the 1990s and 2005.

Papers relating to both pieces of research have been published in Nature Climate Change. Both papers are important because they shed light on the debate around the so called missing energy mystery. Essentially, they imply that heat has accumulated faster than had been thought in the upper ocean but not, as many have suggested, in the deeper ocean below 2km.

Die NASA gab am 6. Oktober 2014 die folgende Pressemitteilung zur Llovel et al.-Studie heraus:

NASA Study Finds Earth’s Ocean Abyss Has Not Warmed

The cold waters of Earth’s deep ocean have not warmed measurably since 2005, according to a new NASA study, leaving unsolved the mystery of why global warming appears to have slowed in recent years.

Scientists at NASA’s Jet Propulsion Laboratory (JPL) in Pasadena, California, analyzed satellite and direct ocean temperature data from 2005 to 2013 and found the ocean abyss below 1.24 miles (1,995 meters) has not warmed measurably. Study coauthor Josh Willis of JPL said these findings do not throw suspicion on climate change itself.

“The sea level is still rising,” Willis noted. “We’re just trying to understand the nitty-gritty details.”

In the 21st century, greenhouse gases have continued to accumulate in the atmosphere, just as they did in the 20th century, but global average surface air temperatures have stopped rising in tandem with the gases. The temperature of the top half of the world’s oceans — above the 1.24-mile mark — is still climbing, but not fast enough to account for the stalled air temperatures.

Many processes on land, air and sea have been invoked to explain what is happening to the “missing” heat. One of the most prominent ideas is that the bottom half of the ocean is taking up the slack, but supporting evidence is slim. This latest study is the first to test the idea using satellite observations, as well as direct temperature measurements of the upper ocean. Scientists have been taking the temperature of the top half of the ocean directly since 2005, using a network of 3,000 floating temperature probes called the Argo array.

“The deep parts of the ocean are harder to measure,” said JPL’s William Llovel, lead author of the study published Sunday in the journal Nature Climate Change. “The combination of satellite and direct temperature data gives us a glimpse of how much sea level rise is due to deep warming. The answer is — not much.”

The study took advantage of the fact that water expands as it gets warmer. The sea level is rising because of this expansion and the water added by glacier and ice sheet melt.

To arrive at their conclusion, the JPL scientists did a straightforward subtraction calculation, using data for 2005-2013 from the Argo buoys, NASA’s Jason-1 and Jason-2 satellites, and the agency’s Gravity Recovery and Climate Experiment (GRACE) satellites. From the total amount of sea level rise, they subtracted the amount of rise from the expansion in the upper ocean, and the amount of rise that came from added meltwater. The remainder represented the amount of sea level rise caused by warming in the deep ocean. The remainder was essentially zero. Deep ocean warming contributed virtually nothing to sea level rise during this period.

Coauthor Felix Landerer of JPL noted that during the same period warming in the top half of the ocean continued unabated, an unequivocal sign that our planet is heating up. Some recent studies reporting deep-ocean warming were, in fact, referring to the warming in the upper half of the ocean but below the topmost layer, which ends about 0.4 mile (700 meters) down.

Landerer also is a coauthor of another paper in the same journal issue on 1970-2005 ocean warming in the Southern Hemisphere. Before Argo floats were deployed, temperature measurements in the Southern Ocean were spotty, at best. Using satellite measurements and climate simulations of sea level changes around the world, the new study found the global ocean absorbed far more heat in those 35 years than previously thought — a whopping 24 to 58 percent more than early estimates.

Both papers result from the work of the newly formed NASA Sea Level Change Team, an interdisciplinary group tasked with using NASA satellite data to improve the accuracy and scale of current and future estimates of sea level change. The Southern Hemisphere paper was led by three scientists at Lawrence Livermore National Laboratory in Livermore, California.

NASA monitors Earth’s vital signs from land, air and space with a fleet of satellites and ambitious airborne and ground-based observation campaigns. NASA develops new ways to observe and study Earth’s interconnected natural systems with long-term data records and computer analysis tools to better see how our planet is changing. The agency shares this unique knowledge with the global community and works with institutions in the United States and around the world that contribute to understanding and protecting our home planet.

Im Mai 2015 konnte das Forscherquartett Liang, Wunsch, Heimbach und Forget dann sogar im Journal of Climate zeigen, dass sich die tiefen Ozeanschichten derzeit abkühlen und Wärme an obere Wasserstockwerke abgeben. Die Wissenschaftler weisen daraufhin, dass sich die Ozeane zu Beginn des anthropogenen Klimawandels keineswegs in einem Gleichgewichtszustand befanden und dies berücksichtigt werden muss. Hier der Abstract:

Vertical Redistribution of Oceanic Heat Content
Estimated values of recent oceanic heat uptake are on the order of a few tenths of a W m−2, and are a very small residual of air–sea exchanges, with annual average regional magnitudes of hundreds of W m−2. Using a dynamically consistent state estimate, the redistribution of heat within the ocean is calculated over a 20-yr period. The 20-yr mean vertical heat flux shows strong variations in both the lateral and vertical directions, consistent with the ocean being a dynamically active and spatially complex heat exchanger. Between mixing and advection, the two processes determining the vertical heat transport in the deep ocean, advection plays a more important role in setting the spatial patterns of vertical heat exchange and its temporal variations. The global integral of vertical heat flux shows an upward heat transport in the deep ocean, suggesting a cooling trend in the deep ocean. These results support an inference that the near-surface thermal properties of the ocean are a consequence, at least in part, of internal redistributions of heat, some of which must reflect water that has undergone long trajectories since last exposure to the atmosphere. The small residual heat exchange with the atmosphere today is unlikely to represent the interaction with an ocean that was in thermal equilibrium at the start of global warming. An analogy is drawn with carbon-14 “reservoir ages,” which range from over hundreds to a thousand years.

 

Treibhausgase: Die Welt wird grüner

Lange belächelt, nun aber amtlich: Pflanzen brauchen CO2 zum Wachsen! Spiegel Online berichtete am 29. April 2016:

Treibhausgase: Die Welt wird grüner
CO2 sorgt für den Klimawandel – doch gleichzeitig lässt es verstärkt Pflanzen wachsen. Satellitendaten zeigen: Die Erde ergrünt. Das Treibhausgas Kohlendioxid (CO2) sorgt dafür, dass die Luft wärmer wird. Klimaforscher warnen seit Langem vor den Folgen. Jetzt aber zeige sich ein positiver Effekt des Gases, das aus Autos, Fabriken und Kraftwerken strömt: Es dünge quasi Pflanzen, berichten Wissenschaftler im Fachmagazin “Nature Climate Change”. Die Welt sei in den vergangenen Jahrzehnten erheblich grüner geworden. Eine Grünfläche doppelt so groß wie die USA sei seit 1982 hinzugekommen. Dass CO2 das Wachstum von Pflanzen anregt, war bekannt. Mit ihrer Fotosynthese wandeln sie Kohlendioxid mithilfe des Blattgrüns Chlorophyll und mit Sonnenlicht und Wasser in Zucker um – mit dem Pflanzen ihre Zellen bilden. Wie stark der Düngeeffekt wirkt, ist unbekannt. Die neue Studie aber scheint einen stattlichen Einfluss zu dokumentieren.

Weiterlesen auf Spiegel Online

Die NASA gab am 27. April die folgende Pressemitteilung zur Studie heraus:

CO2 is making Earth greener—for now

A quarter to half of Earth’s vegetated lands has shown significant greening over the last 35 years largely due to rising levels of atmospheric carbon dioxide, according to a new study published in the journal Nature Climate Change on April 25.

An international team of 32 authors from 24 institutions in eight countries led the effort, which involved using satellite data from NASA’s Moderate Resolution Imaging Spectrometer and the National Oceanic and Atmospheric Administration’s Advanced Very High Resolution Radiometer instruments to help determine the leaf area index, or amount of leaf cover, over the planet’s vegetated regions. The greening represents an increase in leaves on plants and trees equivalent in area to two times the continental United States.

Green leaves use energy from sunlight through photosynthesis to chemically combine carbon dioxide drawn in from the air with water and nutrients tapped from the ground to produce sugars, which are the main source of food, fiber and fuel for life on Earth. Studies have shown that increased concentrations of carbon dioxide increase photosynthesis, spurring plant growth.

While rising carbon dioxide concentrations in the air can be beneficial for plants, it is also the chief culprit of climate change. The gas, which traps heat in Earth’s atmosphere, has been increasing since the industrial age due to the burning of oil, gas, coal and wood for energy and is continuing to reach concentrations not seen in at least 500,000 years. The impacts of climate change include global warming, rising sea levels, melting glaciers and sea ice as well as more severe weather events.

Carbon dioxide fertilization isn’t the only cause of the increased plant growth—nitrogen, land cover change and climate change by way of global temperature, precipitation and sunlight changes all contribute to the greening effect. To determine the extent of carbon dioxide’s contribution, researchers ran the data for carbon dioxide and each of the other variables in isolation through several computer models that mimic the plant growth observed in the satellite data.

Results showed that carbon dioxide fertilization explains 70 percent of the greening effect, said co-author Ranga Myneni, a professor in the Department of Earth and Environment at Boston University. “The second most important driver is nitrogen, at 9 percent. So we see what an outsized role CO2 plays in this process.”

About 85 percent of Earth’s ice-free lands is covered by vegetation. The area covered by all the green leaves on Earth is equal to, on average, 32 percent of Earth’s total surface area — oceans, lands and permanent ice sheets combined. The extent of the greening over the past 35 years “has the ability to fundamentally change the cycling of water and carbon in the climate system,” said lead author Zaichun Zhu, a researcher from Peking University, China, who did the first half of this study with Myneni as a visiting scholar at Boston University.

Every year, about half of the 10 billion tons of carbon emitted into the atmosphere from human activities remains temporarily stored, in about equal parts, in the oceans and plants. “While our study did not address the connection between greening and carbon storage in plants, other studies have reported an increasing carbon sink on land since the 1980s, which is entirely consistent with the idea of a greening Earth,” said co-author Shilong Piao of the College of Urban and Environmental Sciences at Peking University.

The beneficial impacts of carbon dioxide on plants may be limited, said co-author Dr. Philippe Ciais, associate director of the Laboratory of Climate and Environmental Sciences, Gif-suv-Yvette, France. “Studies have shown that plants acclimatize, or adjust, to rising carbon dioxide concentration and the fertilization effect diminishes over time.”

“While the detection of greening is based on data, the attribution to various drivers is based on models,” said co-author Josep Canadell of the Oceans and Atmosphere Division in the Commonwealth Scientific and Industrial Research Organisation in Canberra, Australia. Canadell added that while the models represent the best possible simulation of Earth system components, they are continually being improved.

 

Richard Feynman: “Real science is all about trying to prove your theory wrong”

“Real science is all about trying to prove your theory wrong. You do everything you can to prove it wrong, then have other people do what they can to prove it wrong. When all of you fail at doing that, when the theory has been refined such that it fits all the evidence and you can’t figure out how else to test it, then it is most likely the truth. That is what scientific rigor is about. It isn’t about coming up with a theory, ignoring data you don’t like, showing it to a few people who agree with you, and saying ‘Ok, we proved this true and nobody else can look at it.’“

Richard P. Feynman (1918 – 1988), Physicist

Die Eisheiligen werden immer kälter

Von Josef Kowatsch und Sebastian Lüning
Naturbeobachter und unabhängige Klimawissenschaftler

Die Eisheiligen sind die Tage vom 11. bis 15. Mai. Laut alten Bauernregeln soll in diesem Zeitraum eine kalte Zwischenphase erfolgen, also noch kälter als der Maibeginn. Wir stellen uns der Frage: Wurden diese fünf Tage nun kälter oder wärmer in der Gegenwart? Anlass dieser Frage ist die Äußerung vom Vorstand des Deutschen Wetterdienstes (DWD), Andreas Friedrich in der Neuen Osnabrücker Zeitung am 21. April 2016:

„…In den vergangenen Jahren haben sich die Eisheiligen eher rar gemacht“. Meteorologe Andreas Friedrich vom Deutschen Wetterdienst stellt fest: „In den letzten Jahren zeigten sich diese Kaltlufteinbrüche im Mai weniger…“

Schon im letzten Jahr hatte Vorstand Friedrich im „Focus“ ähnliches behauptet. Da wurden die Eisheiligen 2015 einfach zu Heißheiligen gemacht. Zunächst sei die Frage erlaubt, was heißt Gegenwart, was heißt in den letzten Jahren? Für den folgenden Artikel definiere ich „Gegenwart“ deshalb selbst: Ab 1998 setzten verstärkt die Katastrophenmeldungen und Vorhersagen über eine unheilvolle Erderwärmung ein. Deshalb werden wir für Angaben wie „in jüngster Zeit“ oder „die letzten Jahre“ oder „in der Gegenwart“ immer das Jahr 1998 als Ausgang für die Betrachtung ansetzen. Und da Meteorologen 30 Jahre als Klimaeinheit betrachten, soll auch dieser Zeitraum untersucht werden. Beginnen wollen wir aber mit 50 Jahre, einem recht langen Betrachtungszeitraum. Wir haben uns die Daten der Klimastation Potsdam für die letzten 50 Jahre besorgt, also von 1966 bis 2015. Im folgenden Diagramm sind die 5 Eisheiligentage (11. – 15. Mai) aus der Langzeitreihe der Klimastation von Potsdam (PIK Potsdam) mit Tageswerten extrahiert und die fünf Tage im Schnitt dargestellt.

Die Eisheiligen der letzten 50 Jahre

Nimmt man die Schnitt-Temperaturen der Eisheiligen ab 1966 der Station Potsdam, zeigt sich ein signifikanter Trend von – 2K innerhalb der  50 Jahre. Zwei Grad Abkühlung in 50 Jahren ist das Gegenteil von Erwärmung, und das Gegenteil eines Ausfalls der Eisheiligen (Abbildung 1). Ergebnis: In den letzten 50 Jahren wurden die Eisheiligen kälter und nicht wärmer.

 

Abb. 1. Über die letzten 50 Jahre zeigen die Eisheiligen in Potsdam einen negativen Trend, die fünf Tage wurden eindeutig kälter und nicht wärmer. Der letzte Wert sind die Eisheiligen 2015, denn 2016 liegt noch nicht vor. Es sei noch darauf hingewiesen, dass kurz nach dem Start des Betrachtungszeitraumes ab 1971 acht kalte Eisheiligenjahre folgten.

 

Die Eisheiligen der letzten 30 Jahre

Der nächste Betrachtungsabschnitt sind 30 Jahre, weil 30 Jahre als die kleinste Klimabetrachtungseinheit definiert sind. Ergebnis: In den letzten 30 Jahren wurden die Eisheiligen deutlich kälter (Abbildung 2).

Abb. 2. Temperaturentwicklung der Eisheiligen in Potsdam seit 1985.

 

Die Eisheiligen der letzten 18 Jahre

Besonders in der Gegenwart, die wir als die letzten 18 Jahre definiert hatten, sollen die Eisheiligen laut DWD-Vorstandmitglied Friedrich besonders wärmer geworden sein. Ergebnis: In der Realität ist aber auch für diesen Zeitraum eine Abkühlung der Eisheiligen in Potsdam zu verzeichnen (Abbildung 3).

Abb. 3. Temperaturentwicklung der Eisheiligen in Potsdam seit 1998.

 

Fazit

Bereits seit 50 Jahren werden die Tage vom 11. bis 15. Mai in Potsdam kälter. Das ist ein langer fallender Trend. Nähert man sich der Gegenwart, dann nimmt der fallende Trend sogar zu. Also genau das Gegenteil von Heißheiligen. Die warnenden Meldungen der deutschen Medien über angeblich immer wärmer werdende Eisheilige in der Gegenwart halten einer wissenschaftlichen Betrachtung am Beispiel Potsdam nicht Stand.

 

Visuelle Naturbeobachtung

Überprüfen wir abschließend noch die Abkühlung der Eisheiligen in der freien Fläche. Dafür wählen wir das Frankenbachtal in Süddeutschland. Das Tal liegt zwischen den beiden Städten Aalen und Ellwangen auf 450 bis 470m NN, etwa 600 m von der nächsten kleineren Ansiedlung entfernt. Am 1.ten Eisheiligentag 2016 sah die Vegetation so aus:

Abbildung 4. Durch den kalten April und den kalten Mai 2016, der in der freien Fläche außerhalb der Städte und Ansiedlungen noch kälter ausfällt haben die Bäume und Sträucher beim Start der Eisheilligen noch fast keine Vegetation entwickelt. Die Aufnahme zeigt den Südhang des Frankenbachtales in Süddeutschland auf 460m Höhe. Die Vegetation ist durch die Hanglage vor den kalten Nordwinden des Spätwinters und Frühjahres eigentlich geschützt. Foto Kowatsch.

 

Es bleibt zu hoffen: „Komm lieber Mai und mache die Bäume wieder grün“, ein 250 Jahre altes Volkslied von W.A.Mozart. 2016 warten selbst die Bäume und Sträucher bis die Eisheiligen vorbei sind. Die Frage für 2016 ist: Wo pendeln sich die jetzigen fünf Tage ein?

 

Neue Studie: Den Steinlawinen im Mont-Blanc-Massiv ist das Klima herzlich egal

Am 21. April 2016 beschäftigte sich Dagmar Röhrlich im Deutschlandfunk (DLF) mit einer neuen Arbeit eines Teams um Ulf Büntgen zur Klimageschichte des russischen Altai-Gebirges und der Alpen während der vergangenen 2000 Jahre. Wir hatten an dieser Stelle bereits über die Studie berichtet. Thema ist die Kältephase der Völkerwanderungszeit. In der Originalarbeit werden im Abstract Vulkanausbrüche und solare Schwächephase als Erklärung genannt:

We find an unprecedented, long-lasting and spatially synchronized cooling following a cluster of large volcanic eruptions in 536, 540 and 547 AD (ref. 14), which was probably sustained by ocean and sea-ice feedbacks15, 16, as well as a solar minimum17.

Und raten Sie mal – genau – die Sonne hat es doch tatsächlich nicht in Dagmar Röhrlichs Beitrag geschafft. Sie mag die Sonne offenbar nicht, daher fiel der kühlende solare Faktor kurzerhand unter den Tisch. Sozusagen beim Tricksen auf frischer Tat ertappt…  Hier der Anfangsabsatz aus dem DLF-Beitrag:

Vulkanausbrüche im Mittelalter: Als Vulkane die Menschen hungern ließen
Missernten und Hunger gab es Mitte des sechsten Jahrhunderts in weiten Bereichen Europas – aber ebenso in Mittelamerika. Dort gerieten die Maya in eine große Krise. Beides könnte eine gemeinsame Ursache haben: Zwei Vulkane, die innerhalb weniger Jahre ausgebrochen sind – ein Doppelschlag mit verheerenden Folgen für Klima und Gesellschaft.

Trotz seiner selbst gewählten Einseitigkeit hat der DLF mit diesem Bericht – wohl unbewusst und unfreiwillig – einmal mehr gezeigt, dass die Menschheit vor allem unter Kälteperioden gelitten hat, und nicht in den Phasen einer Klimaerwärmung, wie in den Römischen und Mittelalterlichen Warm-Perioden, oder eben heute…

—————-

Der Klimawandel ist bekanntlich an (fast) allem Schuld. Das gilt natürlich auch für Bergstürze. Immer wenn die Felsen ins Tal prasseln, weiß man im Grunde schon, wer hier die Finger mit im Spiel hat. Auf Wikipedia kann man es schwarz-auf-weiß nachlesen:

Der mit dem Klimawandel verbundene Temperaturanstieg und das damit einhergehende Auftauen des bis anhin stabilisierenden Permafrosts erhöht die Gefahr von Bergstürzen. Die historische Geologie kennt Bergstürze mit diesen Ursachen bereits aus früheren Warmzeiten.

Nun hat das elegante Modell jedoch einen empfindlichen Dämpfer erlitten. Ein Forscherteam um Philip Deline rekonstruierte die Bergsturz-Historie im Mont Blanc-Massiv während der vergangenen Jahrtausende. Das Ergebnis lässt aufhorchen: Die Forscher konnten keinen Zusammenhang zwischen Steinlawinen und dem Klima feststellen. Ob kalt, ob warm, die Steine kümmerten sich nicht darum. Hier die Kurzfassung der Arbeit:

Repeated Holocene rock avalanches onto the Brenva Glacier, Mont Blanc massif, Italy: A chronology
Infrequent rock avalanches (volume ≥1 Mm3) are long-runout processes, especially when travelling onto a glacier, that may threaten populated mountain valleys. Rock avalanches also have strong implications are for relief generation and destruction though time. Both consequences make reconstruction and dating of past events crucial, but dense clusters of events documented in one basin that may improve our knowledge of rock-avalanche frequency and triggering are very rare. Here we propose a chronology of seven of the rock-ice avalanches that affected a steep glacier basin on the southeast side of the Mont Blanc during the late Holocene. A geomorphological study of the runout deposits on the valley floor and the opposite side was combined with the analysis of historical sources and the use of absolute and relative dating methods, especially surface exposure dating with cosmogenic nuclides of 18 granite boulders from two deposits. These rock-ice avalanches are dated AD 1997 and 1920, with a rock volume in the range 2.4–3.6 and 2 × 106 m3, respectively; AD 1767, with a slightly shorter runout; AD 1000–1200, with a longer runout; c. AD 500, the runout of which is uncertain; c. 2500 BP, the determination of which is indirect; and c. 3500 years, with the longest runout. There is no distinct relationship between climatic periods and occurrence of these rock avalanches. Even for the two best documented ones, modelling suggests that the 1997 scar was characterized by a permafrost close to 0 °C, whereas in contrast, the 1920 scar was on the contrary located in cold permafrost.

 

Achgut mit den schönsten Klimawandel-Anekdoten

Am 15. Februar 2016 war in den Reviews of Geophysics eine Arbeit von Ruddiman et al. zu bestaunen, die anomale und daher anthropogene Merkmale in der vorindustriellen Klimaentwicklung gefunden haben will:

Late Holocene climate: Natural or anthropogenic?
For more than a decade, scientists have argued about the warmth of the current interglaciation. Was the warmth of the preindustrial late Holocene natural in origin, the result of orbital changes that had not yet driven the system into a new glacial state? Or was it in considerable degree the result of humans intervening in the climate system through greenhouse gas emissions from early agriculture? Here we summarize new evidence that moves this debate forward by testing both hypotheses. By comparing late Holocene responses to those that occurred during previous interglaciations (in section 2), we assess whether the late Holocene responses look different (and thus anthropogenic) or similar (and thus natural). This comparison reveals anomalous (anthropogenic) signals. In section 3, we review paleoecological and archaeological syntheses that provide ground truth evidence on early anthropogenic releases of greenhouse gases. The available data document large early anthropogenic emissions consistent with the anthropogenic ice core anomalies, but more information is needed to constrain their size. A final section compares natural and anthropogenic interpretations of the δ13C trend in ice core CO2.

Seit längerem vertritt Rhuddiman die These, das nicht erst Industrieschlote und SUVs das Klima veränderten, sondern dass der Mensch auch in vorindustrieller Zeit seine Finger mit im Spiel hat. Eine verrückte These, die gegen den Mainstream angeht, die wir uns aber kurz näher anschauen wollen. Was für “anomale” Muster meinen die Autoren?

Der Blick in das hinter hohen Paywalls verborgene Paper zeigt eine Vielzahl von verdächtig farbenfrohen Graphiken. Seltsamerweise tauchen in der Diskussion überhaupt keine Millenniumszyklen auf, die jedoch aus der holozänen Klimageschichte bestens bekannt sind. Auch die Mittelalterliche Wärmeperiode wird mit keiner Silbe erwähnt. Wenn nicht einmal diese Temperaturschwankungen besprochen werden, kann die Studie nicht ernst genommen werden. Sorry.

—————-

Immer wieder kommt es vor, dass man gebeten wird, einen Vortrag zum Thema Klimawandel und Energiewende zu halten. Es dauert eine ganze Weile bis man geeignete Graphiken aus Büchern, Papers und Powerpoints zusammenkopiert hat. Alfred Brandenberger hat auf seiner Webseite eine Übersicht zu Klimawandel-Präsentationen im Internet zusammengestellt. Stöbern lohnt sich. Ebenso empfehlenswert ist sein Kapitel “Glaube & Hysterie”, in dem es u.a. um Gruppendenken, Ideologie und Denkverbote geht.

—————-

Willy Marth berichtete am 9. April 2016 in seinem “Rentnerblog” über eine interessante Karriere eines Ingenieurs, an dessen Beförderung Angela Merkel offenbar nicht ganz unschuldig ist:

Derzeitiger Präsident der Leibniz-Gemeinschaft ist der 61-jährige Matthias Kleiner. Er studierte Maschinenbau an der Technischen Universität Dortmund, promovierte dort in Umformtechnik und wurde zum Oberingenieur ernannt. Nach einer Zwischenstation an der Universität Cottbus ist er heute (beurlaubter) Professor in Dortmund. Eine seiner wichtigsten wissenschaftlichen Arbeiten trägt den Titel: Dynamisches Beulverhalten neuartiger Feinblechwerkstoffe.

An Kleiners Karriere war die Bundeskanzlerin nicht unbeteiligt. Als Angela Merkel im März 2011, unmittelbar nach den Reaktorunfällen im japanischen Fukushima, per Dekret die Hälfte der deutschen Kernkraftwerke spontan stilllegte, war technische Unterstützung gefragt. Die darin kompetente Reaktorsicherheitskommission mit mehr als hundert ausgewiesenen Experten gab jedoch nach mehrmonatiger Beratung ein Gutachten ab, worin sie die deutschen Kernkraftwerke nach wie vor für sicher erachtete und die geologische Situation in Deutschland (fehlende Starkerdbeben und Tsunamis)  nicht für vergleichbar  mit der japanischen hielt.

Die Physikochemikerin Merkel geriet in Argumentationsschwierigkeiten und “erfand” daraufhin die sogenannte Ethikkommission. Sie etablierte ein Gutachtergremium, welches den Weiterbetrieb der deutschen Atomkraftwerke unter “ethischen Gesichtspunkten” bewerten sollte. Zu Mitgliedern dieser Kommission berief sie eine Reihe von Politologen, Soziologen und Philosophen. Auch die Repräsentanten der Kirchen waren reichhaltig vertreten, wie etwa Kardinal Marx, Landesbischof Ulrich Fischer und Alois Glück, damals Präsident des Zentralkomitees der deutschen Katholiken. Auf Reaktorexperten und Vertreter der Stromkonzerne – um deren Anlagen es eigentlich ging – wurde verzichtet. Zum Leiter dieser Ethikkommission benannte Merkel den Oberingenieur  Matthias Kleiner, nebst dem Volkswirt Klaus Töpfer.

Und tatsächlich, nach wenigen Wochen konnte Kleiner, der Fachmann für zerbeulte Bleche, Vollzug melden. Seine Kommission urteilte, dass der Ausstieg aus der Kernenergie ethisch geboten sei und innerhalb von 10 Jahren – also bis 2021 – technisch auch möglich ist. Hilfreich war dabei sicherlich ein Statement von Kardinal Marx, der im Vorfeld dieser Entscheidung schon mal die Kernenergie als “Teufelszeug” bezeichnete. Wer hätte diesem Experten für überirdische Dinge auf seinem Fachgebiet schon widersprechen wollen! Kurze Zeit darauf, am 30. Juni 2011, ließ Frau Merkel die von ihr initiierte “Energiewende” vom Deutschen Bundestag absegnen. Und wie es sich so schickte, wurde Kleiner am 1. Juli 2014 zum Präsidenten der Leibniz-Gemeinschaft berufen.

Ganzen Artikel im Rentnerblog lesen.

—————-

Das Achgut-Blog sorgte am 1. Mai 2016 für gute Laune in der Klimadiskussion:

Das Anti-Depressivum zum Sonntag: Die schönsten Klimawandel-Anekdoten

Auf der Achse des Guten ist, so hörte man vor ein paar Tagen im WDR, „jede noch so blöde Behauptung gut aufgehoben.“ Konkret ging es in einem Gespräch der Sendung „Politikum“ um das Thema Klimawandel, und der sachkundige Analyst war ein „Parteienforscher“ aus Göttingen. Die Achse, so der Herr weiter, sei eine der Quellen, aus der AfD Politiker und Wähler ihr Nichtwissen schöpften, denn seit Jahren sei die Seite das „Reservoir der bezahlten Klimaskepsis“.

Ich mag Parteienforscher. Es sind meist zauselige Planstellenbesetzer, die vor und nach Wahlen in Funk und Fernsehen erklären dürfen, warum und weshalb und überhaupt. Ihr Unterhaltungswert ist nicht gering, und da sie mit heißem Bemühen studiert haben, um den Hochs und Tiefs in der politischen Landschaft nachzuforschen, ist es nicht verwunderlich, wenn einer aus ihrer Zunft sich auch als Klimaexperte betätigt. Als Liebhaber der schönen Erzählform Anekdote musste ich diese Vorlage für meine heutige Kolumne unbedingt aufnehmen, gibt es doch zahlreiche launige Geschichten, die die Rolle des Klimawandels im Mittelpunkt haben. Hier eine kleine Auswahl.

Weiterlesen auf Achgut.com

 

Vorschlag: Veggieday für unsere Kohlekraftwerke

Von Uli Weber

Unser ehemaliger Umweltminister Jürgen Trittin hatte am 30. November 2015 auf Phoenix, in einem Zwischenruf beim Streitgespräch mit Fritz Vahrenholt, den Bürgerinnen und Bürgern unseres Landes die eigentliche Krux der deutschen Energiewende ganz klar und niederschmetternd deutlich gemacht, Zitat (der Bezug ist in Klammern eingefügt):

Das Problem ist, dass wir die Überproduktion [beim Strom] haben, weil die Kohlekraftwerke schlicht und ergreifend nicht abgestellt werden!
(Quelle: Phönix, Unter den Linden spezial am 30.11.2015, Thema „Der Klimawandel – Das verdrängte Risiko?“, Sendezeit 22:15 Uhr, Online-Video hier, Zitat bei Minute 19:10)

Bevor wir vor dem Hintergrund wachsender öffentlicher EEG-Kritik die vertraglich vereinbarte Dekarbonisierung der Welt hier bei uns nun weiter vorantreiben, brauchen wir endlich einmal positive Signale für die Bürgerinnen und Bürger in unserem Lande, die diese Energiewende ja schließlich mit Milliarden von Euros jährlich bezahlen müssen. Es fragt sich also, warum wir nicht einmal im Jahr unsere Kohlekraftwerke für einen Tag abschalten, um endlich alle EEG-Kritiker zum Schweigen zu bringen und um gleichzeitig Gesellschaft und Industrie den Stand und die Perspektive unserer deutschen Energiepolitik ganz klar und deutlich vor Augen zu führen.

Warum veranstalten wir also keinen Veggieday für Kohlekraftwerke?

In einem vorsichtigen ersten Schritt könnte man ja den Sommeranfang zum kohlestromfreien Tag ausrufen, schließlich verzeichnet der 21. Juni mit der kürzesten Nacht auch den höchsten Sonnenstand des Jahres und damit die größtmögliche Solarausbeute. Mit einem solchen Veggieday für Kohlekraftwerke könnte der Energiewende in Deutschland zu einer nie gekannten gesellschaftlichen Zustimmung verholfen werden.

Also alle mal herhören: Macht endlich den 21. Juni zum Veggieday für Kohlekraftwerke!


Ein explosiver Vertrag: Mobiliar-Versicherung darf offenbar über Klimaforschungsinhalte an Uni Bern mitbestimmen

“Ein harter Schlag gegen die Windkraft”, so lautete der ursprüngliche Titel eines Klimaretter-Blogbeitrags vom 9. Mai 2016. Einige Stunden später wurde der Titel jedoch nachträglich entschärft, vielleicht weil die negativen Folgen für die deutsche Windindustrie zu deutlich geworden wären:

Klage gegen 10-H-Regel abgewiesen
Das Urteil schränkt den Ausbau der Windkraft in Bayern weiterhin ein: Am heutigen Montag hat das bayerische Verfassungsgericht die umstrittene 10-H-Regelung als verfassungskonform bestätigt. Während sich die Landesregierung in München durch das Urteil bestätigt fühlt, sehen Opposition und Branchenverbände das Ende des Windkraftausbaus nahen, zumindest in Bayern.

Nach der Urteilsverkündigung am Montagvormittag fehlt es nicht an drastischen Worten: Nicht weniger als das “Ende der Windkraft” in Bayern befürchtet der Vorsitzende des schwäbischen Windkraftverbands Wendelin Einsiedler. Mit der heutigen Entscheidung des Verfassungsgerichts werde es schier unmöglich, Standorte für Windkraftanlagen zu finden.

Weiterlesen auf Klimaretter.info.

—————-

Jahrelang konnten sich Versicherungen munter mit der Klimaforschung verbandeln, und alle fanden das vollkommen in Ordnung. Dass dabei ein handfester Interessenskonflikt vorliegt, wurde großzügig ausgeblendet. Es ist unstrittig, dass Klimaangst den Abschluß von Extremwetterversicherungen und die Akzeptanz höherer Versicherungspreise stark befördert. Ein geniales Marketingkonzept. Bereits Anfang 2013 hatten wir an dieser Stelle auf das Problem hingewiesen (siehe “Schweizerische Mobiliar-Versicherung finanziert Klima-Professur“). Die goldenen Zeiten der unbeschwerten Beeinflussung sind nun aber offenbar vorbei. Am 21. April 2016 übte nun endlich auch SRF aus Bern heftige Kritik an der fragwürdigen Interessensverquickung:

Klimaforschung: An der Uni Bern redet die Mobiliar mit
Die Mobiliar-Versicherung sponsert an der Universität Bern eine Professur für Klimafolgen-Forschung. Der bisher unveröffentlichte Vertrag zwischen Mobiliar und Universität Bern zeigt nun: Die Mobiliar kann stark mitbestimmen, was geforscht wird.
Eine halbe Million Franken – jährlich und während zehn Jahren: So viel Geld erhält die Universität Bern von der Mobiliar-Versicherung. Damit soll Professorin Olivia Romppainen-Martius mit ihrem Team zu Klimafolgen im Alpenraum forschen. Zum Beispiel dazu, wo in Zukunft vermehrt Hagel zu erwarten ist. Als Ausgangpunkt für deren Forschungen liefert die Mobiliar auch gleich anonymisierte Daten ihrer Kunden. Das sei eine riesige Chance, findet Olivia Romppainen-Martius. Die Mobiliar sieht ihr Engagement denn auch als Dienst an der Allgemeinheit. Im Vertrag mit der Universität Bern klingt das allerdings eigennütziger. Erwartet werde nämlich Forschung, die fürs Versicherungsgeschäft nutzbar ist. Oder im Wortlaut: «Beiträge in praxisorientierter Form unter anderem zur Versicherbarkeit von Elementarschadenrisiken».
[...] Dadurch sei die Forschungsfreiheit ganz klar in Gefahr, findet der Jurist und Rechtsphilosoph Marcel Senn von der Universität Zürich. «Für mich gehen diese Fälle in keiner Art und Weise». Marcel Senn spricht gar von einem «No go».

Weiterlesen beim SRF

Stöbern wir kurz in der Publikationsliste der Mobiliar-geförderten Stelle. Zunächst einmal muss man feststellen, dass die Inhaberin der Professur, Olivia Romppainen-Martius, zusammen mit ihren Arbeitsgruppenmitgliedern in den letzten Jahren sehr fleißig publiziert hat. Das ist schon einmal positiv. Die Kalte-Sonne-Redaktion hat sich die Mühe gemacht, in den diversen Publikationen nach möglichem Klimaalarm zu stöbern. Das Ergebnis ist überraschenderweise erfreulich. Hier scheint solide Forschungsarbeit verrichtet zu werden. Die Kurzfassungen der Studien erscheinen unaufgeregt und seriös. Besonders interessant sind Aussagen zu Trends. So veröffentlichte die Martius-Arbeitsgruppe im Jahr 2014 eine Übersicht zur Sturmentwicklung in der Schweiz für die vergangenen 150 Jahre (Stucki et al.):

A catalog of high-impact windstorms in Switzerland since 1859

Die Analyse ist äußerst interessant und fand einen steten Wechsel von sturmreichen und sturmarmen Phasen. Ein Langzeittrend wurde nicht entdeckt. Dies passt gut zu den Ergebnissen anderer Studien aus Europa. Im Text der Arbeit heißt es:

We find concurrent periods with enhanced or reduced winter storm activity in all damage as well as wind data sets considered here, although there are some incoherencies prior to 1890. Storminess in Switzerland during the 20th century was high until around 1920, then low to medium until around 1970. The latest 40 years were characterized by a gradual increase from the calm 1970s to the extreme storms in the 1990s and a quieter situation since.We presume that particularly the early 20th century could have been as stormy as the last few decades. The decadal variability is present in both the wind data (i.e., the hazard) as well as the loss and damage information. The present article sets the historical context for recent natural hazard events, and it extends traditional compilations. Hence, it may contribute to the understanding of socioeconomic factors (e.g., monetized material values, societal perceptions of losses and impacts) versus processes in nature (e.g., climate variability) that add up to a moderate or an extreme windstorm event.

Das dürfte der Mobiliar-Versicherung nicht gefallen haben. Oder vielleicht doch? Abseits des Marketings ist eine solide Datengrundlage zur Sturmentwicklung nicht zu unterschätzen. Hier die entscheidende Abbildung zur schweizerischen Sturmentwicklung seit 1859 aus der Arbeit:

 

Stammleser dieses Blogs wissen, dass wir bei berechtigter Kritik kein Blatt vor den Mund nehmen. In diesem Fall jedoch gebührt Frau Romppainen-Martius unser Respekt. Trotz der anfälligen Sponsor-Situation lässt sich die Professorin offenbar in ihrer Forschung nicht beeinflussen. Weiter so!

 

Neue Klimafolgenstudie gibt Hoffnung: Ein halbes Grad mehr oder weniger macht einen großen Unterschied

Lesenswerter Artikel vpon Björn Lomborg am 21. April 2016 in der Welt:

Irritierende Konkurrenz zwischen Hitze- und Kältetod
Internationale Studien belegen, dass selbst bei einer Klimaerwärmung die Zahl der Toten durch Hitze weit geringer ist als jene durch Kälte. Trotzdem suggeriert die US-Regierung das Gegenteil.

Weiterlesen auf welt.de

—————-

Wollen Sie Harald Lesch mal so richtig in klimaalarmistischer Fahrt erleben? Dann tun Sie sich das folgende 13-minütige Youtube-Video an. Gleich zu Beginn disqualifiziert er sich, in dem er die historische Temperaturentwicklung in Hockeyschläger-Form beschreibt. Ein Ewiggestriger.

 

Ist Lesch wirklich bei Mann et al. stehengeblieben und hat die (wenig) überraschende Wende in den letzten Jahren nicht mitbekommen? In der Realität war es vor 1000 Jahren zur Zeit der Mittelalterlichen Wärmeperiode so warm wie heute und vor 5000 Jahren zur Zeit des mittelholozänen Klimaoptimums sogar 2 Grad wärmer als heute. Schön verschwiegen von Harald Lesch. Superpeinlich der Mann.

Abbildung: Temperaturentwicklung der letzten 2000 Jahre auf der außertropischen Nordhemisphäre. Nach: Ljungqvist 2010.

—————-

Von Lobbygruppen bezahlte Umfragen haben wenig Wert, das ist bestens bekannt. Schönes kürzliches Beispiel: Der WWF bezahlte ein Marktforschungsunternehmen, das “zufälligerweise” ein Wunschergebnis herausbekam, welches dann medial zurück in die Bevölkerung gestreut wurde. Unternehmen-heute.de machte mit und berichtete am 21. April 2016:

UNO-Umfrage: Deutsche für mehr Klimaschutz
Die Deutschen wünschen sich einer Umfrage zufolge mehr Engagement ihres Landes für den Klimaschutz. 54 Prozent der Bundesbürger sind der Ansicht, dass Deutschland nicht genug im Kampf gegen den Klimawandel tut.
Die Deutschen wünschen sich einer Umfrage zufolge mehr Engagement ihres Landes für den Klimaschutz. 54 Prozent der Bundesbürger sind der Ansicht, dass Deutschland nicht genug im Kampf gegen den Klimawandel tut, wie eine am Donnerstag veröffentlichte Umfrage des Marktforschungsinstituts YouGov im Auftrag der Naturschutzorganisation WWF ergab. Anlass für die Umfrage ist die Unterzeichnung des UN-Klimaabkommens von Paris am Freitag in New York. Der Umfrage zufolge finden es 78 Prozent aller Bundesbürger wichtig, dass Bundeskanzlerin Angela Merkel (CDU) Engagement für schärfere Klimaziele in der EU zeigt. 51 Prozent fänden das sogar äußerst oder sehr wichtig, wie der WWF weiter mitteilte.

Weiterlesen auf Unternehmen-heute.de

—————-

Bleiben wir beim Thema. Die Kühe sind bekanntlich wahre Klimakiller. Durch ihre Rülpser und Pupser zerstören sie unsere Zukunft. Nun scheint die Rettung gekommen: Kühe müssen demnächst wohl verpflichtend eine klimatisch wertvolle Anti-Rülps-Pille nehmen, um ihren Methanausstoß in den Griff zu bekommen. Der Standard schrieb hierzu am 3. Mai 2016:

Wie ein Wirkstoff das schädliche Rülpsen von Wiederkäuern reduziert
Das Molekül 3-Nitrooxypropanol hemmt Mikroorganismen und inaktiviert ein Enzym, das für die Methanbildung zuständig ist Marburg – Im Pansen von Wiederkäuern entstehen durch Methangärung große Mengen des Treibhausgases Methan, die gasförmig ausgestoßen werden. Vor allem die Massenhaltung von Rindern zur Fleisch- und Milchproduktion trägt so zur globalen Erwärmung bei. Wie seit einiger Zeit bekannt ist, senkt die Gabe eines bestimmten Moleküls den Methanausstoß von Wiederkäuern. Nun haben Forscher den Mechanismus dahinter entschlüsselt.

Weiterlesen im Standard.

—————-

Die CO2-Klimasensitivität ist noch immer schlecht bekannt. Der IPCC gibt eine weite Spanne von 1,5°C bis 4,5°C pro CO2-Verdopplung an, was einem Faktor drei entspricht. Neuere Studien gehen davon aus, dass die Klimasensitivität eher im unteren Bereich dieses Unsicherheitsbereichs liegt.

Unter diesem Hintergrund sind die Ergebnisse einer Studie eines Teams um Carl-Friedrich Schleussner vom Potsdam-Institut für Klimafolgenforschung (PIK) von großem Interesse. Die Gruppe bestätigte nochmals, dass die unterschiedlichen Szenarien gänzlich unterschiedliche Auswirkungen auf die Klimaentwicklung haben. Die vormals beworbenenen Katastrophenszenarien könnten sich daher aufgrund der niedrigeren CO2-Klimasensitivität als durchaus beherrschbar entpuppen.

Die Europäische Geowissenschaftliche Union (EGU) gab am 21. April 2016 eine Pressemitteilung im Fachblatt Earth System Dynamics zur Studie heraus. Seltsamerweise blieb die ansonsten so aktive Presseabteilung des PIK hierzu stumm. Vielleicht wegen dieses unbequemen Satzes im letzten Absatz der Pressemitteilung?

“Our results add to a growing body of evidence showing that climate risks occur at lower levels than previously thought.

Hier die Pressemitteilung der EGU in voller Länge:

1.5°C vs 2°C global warming: new study shows why half a degree matters
European researchers have found substantially different climate change impacts for a global warming of 1.5°C and 2°C by 2100, the two temperature limits included in the Paris climate agreement. The additional 0.5°C would mean a 10-cm-higher global sea-level rise by 2100, longer heat waves, and would result in virtually all tropical coral reefs being at risk. The research is published today (21 April) in Earth System Dynamics, an open access journal of the European Geosciences Union, and is presented at the EGU General Assembly.

“We found significant differences for all the impacts we considered,” says the study’s lead author Carl Schleussner, a scientific advisor at Climate Analytics in Germany. “We analysed the climate models used in the [Intergovernmental Panel on Climate Change (IPCC)] Fifth Assessment Report, focusing on the projected impacts at 1.5°C and 2°C warming at the regional level. We considered 11 different indicators including extreme weather events, water availability, crop yields, coral reef degradation and sea-level rise.”

The team, with researchers from Germany, Switzerland, Austria and the Netherlands, identified a number of hotspots around the globe where projected climate impacts at 2°C are significantly more severe than at 1.5°C. One of these is the Mediterranean region, which is already suffering from climate change-induced drying. With a global temperature increase of 1.5°C, the availability of fresh water in the region would be about 10% lower than in the late 20th century. In a 2°C world, the researchers project this reduction to double to about 20%.

In tropical regions, the half-a-degree difference in global temperature could have detrimental consequences for crop yields, particularly in Central America and West Africa. On average, local tropical maize and wheat yields would reduce twice as much at 2°C compared to a 1.5°C temperature increase. Tropical regions would bear the brunt of the impacts of an additional 0.5°C of global warming by the end of the century, with warm spells lasting up to 50% longer in a 2°C world than at 1.5°C. “For heat-related extremes, the additional 0.5°C increase marks the difference between events at the upper limit of present-day natural variability and a new climate regime, particularly in tropical regions,” explains Schleussner. The additional warming would also affect tropical coral reefs. Limiting warming to 1.5°C would provide a window of opportunity for some tropical coral reefs to adapt to climate change. In contrast, a 2°C temperature increase by 2100 would put virtually all of these ecosystems at risk of severe degradation due to coral bleaching.

On a global scale, the researchers anticipate sea level to rise about 50 cm by 2100 in a 2°C warmer world, 10 cm more than for 1.5°C warming. “Sea level rise will slow down during the 21st century only under a 1.5°C scenario,” explains Schleussner.  Co-author Jacob Schewe, of the Potsdam Institute for Climate Impact Research in Germany, says: “Some researchers have argued that there is little difference in climate change impacts between 1.5°C and 2°C. Indeed, it is necessary to account for natural variability, model uncertainties, and other factors that can obscure the picture. We did that in our study, and by focusing on key indicators at the regional level, we clearly show that there are significant differences in impacts between 1.5°C and 2°C.”

William Hare, a senior scientist and CEO at Climate Analytics who also took part in the Earth System Dynamics research, adds: “Our study shows that tropical regions – mostly developing countries that are already highly vulnerable to climate change – face the biggest rise in impacts between 1.5°C and 2°C.” “Our results add to a growing body of evidence showing that climate risks occur at lower levels than previously thought. It provides scientific evidence to support the call by vulnerable countries, such as the Least Developed Countries and Small Island Developing States, that a 1.5°C warming limit would substantially reduce the impacts of climate change,” says Hare.

Der ORF griff die Studie in seinem Programm auf:

Was ein halbes Grad plus bedeutet
Laut dem Pariser Klimaabkommen soll die globale Erwärmung zwei Grad nicht übersteigen – besser wäre es noch, es bliebe bei 1,5 Grad. Forscher haben nun untersucht, welche Konsequenzen die beiden Temperaturziele hätten. Die Unterschiede sind beträchtlich.

Weiterlesen beim ORF.

 

Arktisches Meereis wohl doch robuster als zuvor angenommen

Sorge um das arktische Meereis. Das Alfred-Wegener-Institut (AWI) warnte am 21. April 2016 im Rahmen einer Pressemitteilung vor einer bevorstehenden Rekordschmelze:

Der Arktis droht ein Meereisverlust wie im Negativrekordjahr 2012
Daten des Satelliten CryoSat-2 zeigen viel dünnes Eis, das den Sommer kaum überstehen wird

Meereisphysiker des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), erwarten für den Sommer 2016 ähnlich wenig Meereis im Arktischen Ozean wie im Negativrekordjahr 2012. Zu dieser Prognose kommen die Wissenschaftler, nachdem sie aktuelle Satellitendaten zur Dicke der Eisdecke ausgewertet haben. Diese zeigen zum einen, dass das arktische Meereis bereits im Sommer 2015 ausgesprochen dünn war. Zum anderen hat sich im zurückliegenden Winter besonders wenig neues Eis gebildet. Meereisexperte Dr. Marcel Nicolaus präsentierte diese aktuellen Forschungsergebnisse heute auf einer Pressekonferenz im Rahmen der Jahrestagung der European Geosciences Union in Wien.Die Sommerausdehnung des arktischen Meereises einige Monate im Voraus vorherzusagen, gehört zu den großen Herausforderungen der modernen Polarforschung. Der Grund: Letztendlich entscheiden die Windverhältnisse sowie die Luft- und Wassertemperatur der Sommermonate über das Schicksal des Eises bis zum Ende der Schmelzsaison. Im vorhergehenden Winter werden jedoch die Grundlagen dafür gelegt – und diese sehen im Frühjahr 2016 so schlecht aus wie im Negativrekordjahr 2012. Damals war die arktische Meereisfläche auf ein Rekordminimum von 3,4 Millionen Quadratkilometer geschrumpft.

„Der besonders warme Winter in der Arktis hat dazu geführt, dass sich in vielen Gebieten nur sehr langsam neues Meereis gebildet hat. Vergleichen wir die Meereisdickenkarte des zurückliegenden Winters mit jener aus dem Jahr 2012, dann zeigt sich, dass wir derzeit ähnliche Eisbedingungen vorfinden wie im Frühjahr 2012 – teilweise sogar deutlich dünneres Eis“, sagte AWI-Meereisphysiker Dr. Marcel Nicolaus heute auf einer Pressekonferenz im Rahmen der Jahrestagung der European Geosciences Union (EGU) in Wien.

Er und sein AWI-Kollege Dr. Stefan Hendricks hatten für ihren Meereisausblick die Eisdickenmessungen des Satelliten CryoSat-2 aus den zurückliegenden fünf Wintern ausgewertet. Wichtige Anhaltspunkte lieferten zudem sieben autonome Schneebojen, welche die AWI-Forscher im vergangenen Herbst auf Eisschollen im Arktischen Ozean platziert hatten. Die Bojen messen zusätzlich zur Höhe der Schneedecke auf dem Meereis auch die Lufttemperatur und den Luftdruck. Ein Vergleich ihrer Temperaturdaten mit den AWI-Langzeitmessungen auf Spitzbergen ergab, dass es zum Beispiel im Februar 2016 in der zentralen Arktis bis zu acht Grad Celsius wärmer war als im Durchschnitt.

Bojendaten zeigen: Meereis ist im Winter nicht geschmolzen, nur langsamer gewachsen

Entgegen eines anderslautenden Berichtes US-amerikanischer Forscher führte diese Wärme jedoch nicht dazu, dass die Meereisdecke im Laufe des Winters in einigen Regionen dünner geworden ist. „Unsere Bojendaten aus diesem Frühjahr belegen, dass diese warme Winterluft nicht ausgereicht hat, um den auf dem Meereis liegenden Schnee, geschweige das Eis selbst zu schmelzen“, so Marcel Nicolaus. Das arktische Meereis sei im zurückliegenden Winter nur viel langsamer gewachsen als die Wissenschaftler dies erwartet hatten.

In ehemals eisreichen Gebieten wie dem Beaufortwirbel vor der Küste Alaskas sowie in der Region nördlich Spitzbergens ist das Meereis in diesem Frühjahr deutlich dünner als sonst zu dieser Jahreszeit . „Wo das Festeis nördlich Alaskas normalerweise 1,5 Meter dick ist, messen unsere US-amerikanischen Kollegen derzeit weniger als ein Meter. Derart dünnes Eis wird der Sommersonne nicht lange standhalten können“, sagte AWI-Meereisphysiker Stefan Hendricks.

Arktische Meeresströmung wird bis zum Herbst viel dickes Packeis davontragen

Mit Blick auf die CryoSat-2-Meereisdickenkarte dieses Frühjahres erklärte Stefan Hendricks außerdem: „Die als Transpolardrift bekannte Meeresströmung im Arktischen Ozean wird in den kommenden Monaten einen Großteil des dicken und mehrjährigen Eises, welches wir heute noch vor der Nordküste Grönlands und Kanadas finden, über die Framstraße in den Nordatlantik führen. Auf diese dicken Schollen folgt dann dünnes Eis, welches im Sommer schneller schmilzt. Es deutet demzufolge alles darauf hin, dass das Gesamtvolumen des arktischen Meereises im kommenden Sommer deutlich abnehmen wird und wir bei ungünstigen Witterungsbedingungen gegebenenfalls mit einem neuen Rekord-Minimum rechnen müssen“, sagte Stefan Hendricks.

Der Eisverlust wird nach Auskunft der AWI-Wissenschaftlicher voraussichtlich so groß ausfallen, dass alle Zuwächse, welche die Forscher in den relativ kalten Wintern der Jahre 2013 und 2014 verzeichnet hatten, wieder zunichte gemacht werden. Schon im Spätsommer 2015 hatten die AWI-Forscher eine deutliche Abnahme der Meereisdicke beobachtet, auch wenn die Gesamtfläche des Septemberminimums am Ende rund eine Million Quadratkilometer über dem Rekordminimum 2012 lag. Der außergewöhnlich warme Winter habe nun seinen Teil dazu beigetragen, dass sich der dramatische Rückgang des arktischen Meereises voraussichtlich auch im Jahr 2016 fortsetzen wird.

Die AWI-Meereisphysiker berichten regelmäßig im Onlineportal www.meereisportal.de über die aktuellen Entwicklungen des arktischen und antarktischen Meereises. Dort stellen sie auch alle CryoSat-2-Eisdickenkarten sowie die Messreihen der Schneebojen zur Verfügung.

Da wollen wir uns zunächst einmal einen Überblick verschaffen und schauen uns die Entwicklung des arktischen (blau) und antarktischen (rot) Meereises an:

Abbildung: Entwicklung des arktischen und antarktischen Meereises. Quelle: Climate4You (März 2016-Newsletter). 

 

Festzustellen: Ja, es gibt einen Negativtrend beim arktischen Meereis während der letzten 35 Jahre. Allerdings scheint sich der Rückgang seit ca. 2008 deutlich verlangsamt zu haben. Dies wäre doch eigentlich eine Erwähnung beim AWI wert gewesen. Natürlich gab es während dieser Zeit enorme Schwankungen in der Eisbedeckung, und es ist nicht auszuschließen, dass es im Sommer 2016 wieder einen Ausschlag nach unten geben könnte – so wie bereits in einigen Sommern zuvor. Es sind also eher Rekördchen als richtige Rekorde.

Schauen wir uns die letzten 5 Jahre in einer Graphik des Dänischen Meteorologischen Instituts an:

Abbildung: Entwicklung des arktischen Meereises seit 2012. Quelle: DMI.

 

Das AWI hat den enormen Eisverlust im Jahr 2012 bereits angesprochen. Umso überraschter war man, als das Eis im Nachfolgejahr 2013 ein großes Comeback feierte. Eine Forschergruppe um Rachel Tilling analysierte dieses unerwartete Wiedererstarken des arktischen Meereises in Nature Geoscience und schlussfolgerte, dass das Eis gegenüber dem Klimawandel wohl doch sehr viel robuster ist als zuvor angenommen:

Increased Arctic sea ice volume after anomalously low melting in 2013
[...] The sharp increase in sea ice volume after just one cool summer suggests that Arctic sea ice may be more resilient than has been previously considered.

Das University College London gab dazu sogar eine Pressemitteilung heraus:

Cool summer of 2013 boosted Arctic sea ice
The volume of Arctic sea ice increased by a third after the summer of 2013 as the unusually cool air temperatures prevented the ice from melting, according to scientists. This suggests that the ice pack in the Northern hemisphere is more sensitive to changes in summer melting than it is to winter cooling, a finding which will help researchers to predict future changes in its volume.

Spiegel Online griff das Thema auf:

Schmelz-Stopp: Verschnaufpause für das Eis der Arktis
Schon ein einziger kühler Sommer kann dem Meereis der Arktis helfen, sich kurzzeitig zu erholen. Das berichten britische Forscher. Der langfristige Trend zu einem eisfreien Ozean werde dadurch aber nicht gestoppt.

Auch 2014 wollte das Eis nicht so recht schmelzen, was die BBC zu folgendem Artikel veranlasste:

Arctic sea ice volume holds up in 2014
Arctic sea ice may be more resilient than many observers recognise. While global warming seems to have set the polar north on a path to floe-free summers, the latest data from Europe’s Cryosat mission suggests it may take a while yet to reach those conditions.

Das mehrjährige Eis erreichte 2014 sogar eine weitere Verbreitung als in den neun vorangegangenen Jahren (siehe Beitrag auf Notrickszone “Geophysical Research Letters Shock Finding: In 2014 More Multiyear Ice Than Previous Nine Years…Arctic Winter 0.5 – 1.5°C Colder!”).

Und auch 2015 hielt sich das arktische Meereis nicht an das offizielle Klimakatastrophen-Skript. Kaum eine Veränderug gegenüber den Vorjahren. Das hielt den klimaalarmistisch veranlagten Deutschlandfunk (DLF) nicht davon ab, am 10. April 2015 eine Klimaente in die Welt zu setzen:

Klimawandel in der Arktis: Meereis schmilzt schneller als erwartet
Die Lufttemperatur in der Arktis steigt – im Schnitt um 1,3 Grad pro Jahrzehnt. Das haben Wissenschaftler der internationalen Forschungsstation in Ny Alesund auf Spitzbergen bekannt gegeben, die gerade Bundesforschungsministerin Johanna Wanka bei sich zu Gast haben. Durch die Erwärmung könnte die Arktis bis 2050 komplett eisfrei sein – und Erdöl zugänglich werden.

Darüber lachen oder lieber weinen? Das bleibt Ihnen überlassen. Peinliche Angelegenheit für den DLF. Seriöser war die kanadische York University, die am 29. September 2015 in einer Pressemitteilung erklärte, das Eis in der Nordwest-Passage sei noch immer viel zu dick, um eine reguläre Schifffahrtsroute dort einzurichten:

Arctic sea ice still too thick for regular shipping route through Northwest Passage: York research

Despite climate change, sea ice in the Northwest Passage (NWP) remains too thick and treacherous for it to be a regular commercial Arctic shipping route for many decades, according to new research out of York University. Prior to this research, there was little information about the thickness of sea ice in the NWP, which meanders through the Canadian Arctic Archipelago. Yet, next to ice coverage and type, sea ice thickness plays the most important role in assessing shipping hazards and predicting ice break-up.

“While everyone only looks at ice extent or area, because it is so easy to do with satellites, we study ice thickness, which is important to assess overall changes of ice volume, and helps to understand why and where the ice is most vulnerable to summer melt,” says lead researcher York Professor Christian Haas, the Canada Research Chair for Arctic Sea Ice Geophysics. The research paper, “Ice Thickness in the Northwest Passage”, was published in the journal Geophysical Research Letters.

Haas and his team, including Stephen Howell of Environment Canada, measured first-year and multiyear ice thickness in the Canadian Arctic Archipelago using an airplane equipped with an electromagnetic induction sounder or EM bird. They surveyed the ice in April and May of 2011 and again in 2015. It is considered the first large-scale assessment of ice thickness in the area.

The surveys found a modal thickness of 1.8 to two metres in most regions of the NWP and mean thickness of between two and three metres. Ice originating from the Arctic Ocean showed a mean thickness of more than three metres on average. Some multiyear ice regions contained much thicker, deformed ice that was more than 100 m wide and more than four metres thick. “This is the first-ever such survey in the Northwest Passage, and we were surprised to find this much thick ice in the region in late winter, despite the fact that there is more and more open water in recent years during late summer,” says Haas. “This points to the importance of ice transport from the high Arctic and melt processes during the spring season, which critically depend on weather conditions and how they affect the melting of thick ice.”

Although the results were obtained in late winter when no ships travel the route, they will impact how ice break-up and summer ice conditions develop and are currently predicted, and help forecast the opening and navigability of the NWP during summer. It will also affect how sea ice hazards are assessed during the shipping season and provide baseline data going forward.

The NWP, comprised of a series of gulfs, straits, sounds and channels that connect the Beaufort Sea in the west with Baffin Bay in the east, is a much shorter route for moving goods between the Pacific and Atlantic regions than the Panama and Suez Canals. At the moment, this year’s annual summer minimum Arctic-wide ice coverage is the fourth lowest on record, with similar low coverage in the NWP, according to information provided by the Canadian Ice Service. How climate change will affect the summer ice in the NWP in the future, however, is difficult to predict, says Haas. Further melting could cause more multiyear ice from the Arctic Ocean to drift into the NWP, making it less, not more passable.

Einen Tag später dreht sich Scinexx die Studie etwas zurecht und war sehr um eine politisch korrekte Wortwahl bemüht:

Klimawandel blockiert Nordwestpassage
Losgebrochenes Treibeis erschwert die Durchfahrt des Seewegs.
Überraschung in der Nordwestpassage: Die Erwärmung könnte den Seeweg nördlich von Kanada möglicherweise stärker blockieren, statt ihn freizulegen. Diese scheinbar paradoxe Situation entsteht durch Treibeis aus dem Arktischen Ozean, wie Forscher nun herausgefunden haben. Schmilzt dort mehr Eis, so treiben auch mehr Eisbrocken in die schmalen Durchfahrten der Nordwestpassage und bilden dort dickere Eisschichten. Eine wirtschaftliche Durchfahrt des Seewegs könnte trotz des Klimawandels daher noch für Jahrzehnte unmöglich sein.