Shared posts

23 Nov 19:17

Auswertung der globalen Temperaturdaten mit statistischen Methoden

by Admin
23 Nov 19:17

Klimawandel muss endlich weltweit als Asylgrund anerkannt werden

by Chris Frey

Beispielsweise ist der Klimawandel mittlerweile eine Fluchtursache

PIK-Direktor Hans Joachim Schellnhuber: [5] Im Mittelpunkt des Politikpapiers steht die Frage, wie eine zeit–gerechte Transformation gestaltet werden kann … Verursacher des Klimawandels in die Pflicht nimmt… Rechtsschutz schaffen für all jene Menschen, die von den Folgen des Klimawandels geschädigt werden; einen Klimapass für die menschenwürdige Migration derer, die aufgrund des Klimawandels ihre Heimat verlassen müssen sowie einen Transformationsfonds für einen gerechten Strukturwandel..
So steht es im aktuellen WBGU-Politik-Strategiepapier [5]: Zeit–gerechte Klimapolitik: Vier Initiativen für Fairness,
welches die an die Unkenntnis und Faktenignoranz ihrer Vorgängerin nahtlos anknüpfende Svenja Schulze (Langzeitstudium: Germanistik und Politikwissenschaft) und der Staatssekretär im BMBF, Georg Schütte (Studium: Medien- und Kommunikationswissenschaftler) vom Forschungsministerium, trotz seiner teils abstrusen Aussagen huldvoll annahmen.

Wissenschaftliche Grundlagen

Dieses WBGU „Strategiedokument“ behauptet im Kapitel „Klimawissenschaftlicher Hintergrund“, dass alleine der menschliche CO2-Ausstoß für die jüngeren Klimabewegungen verantwortlich ist, obwohl sich die abrupt seit ca. einer Millionen Jahre ca. alle 100.000 Jahre regelmäßig wiederkehrenden Eiszeiten ohne CO2-Einfluss entwickelten:
[18]Die Deglaziation wird nicht durch CO2, sondern durch Orbitalzyklen angestoßen.
CO
2 verstärkt jedoch das Ausmaß der Erderwärmung, das nicht durch Orbitalzyklen allein erklärt werden kann und sorgt zudem für eine Verteilung der Erwärmung über den gesamten Globus.

Und obwohl inzwischen bekannt ist, dass die häufige Aussage, in neuerer Zeit beobachtete Wetteränderungen seien in Häufigkeit und Geschwindigkeit in der Vergangenheit „noch nie dagewesen“, oft lediglich auf falschen Analysen beruhen. Das Strategiepapier jedoch „belegt“ dessen angeblich schlimmen Auswirkungen anhand von Studien, welche teils nichts anderes bieten, als neu parametrierte Simulationen, welche immer neue, noch schlimmere Klimazukunftsvisionen als alle bisher bekannten auszuspucken vermögen.

So sehen „Belege“ aus

Extremereignisse

WBGU, Zeit-gerechte Klimapolitik: [5]: … Ein Beispiel für die schädlichen Auswirkungen sind Extremwetterereignisse. Global betrachtet haben in den letzten Jahrzehnten die Stärke und die Häufigkeit solcher Ereignisse zugenommen (Herring et al., 2018).
„Herring et al., 2018“ ist eine Publizierung von 166 Seiten, in denen verschiedenste, weltweite Wetter-Extremereignisse auf statistische Signifikanz menschengemachten Temperatureinflusses analysiert wurden. Oft, indem mittels Simulationsläufen das „wirkliche“ Ereignis (ohne Klimawandel-Einfluss) „ermittelt“ und die Differenz als Beleg für einen menschengemachten Einfluss ausgewiesen wird. Allerdings kann in vielen Fällen keine Signifikanz ausgewiesen werden, was in der Studie dann steht, allerdings nicht im WBGU-Papier.
Herring et al., 2018 (Auszüge):
Model simulations indicate that anthropogenic climate change has made extreme snowstorms less likely over the mid-Atlantic United States. Empirical evidence shows no decline since 1901, with recent storms colder than before.
Grob übersetzt: Modellsimulationen zeigen, dass der anthropogene Klimawandel extreme Schneestürme in den mittelatlantischen Vereinigten Staaten weniger wahrscheinlich gemacht hat. Empirische Beweise zeigen keinen Rückgang seit 1901, wobei die jüngsten Stürme kälter waren als zuvor.
Northeast Brazil experienced profound water shortages in 2016 due to a five-year drought. Using multiple methods, we could not find sufficient evidence that anthropogenic climate change increased drought risk.
Grob übersetzt: In Nordostbrasilien herrschte 2016 aufgrund einer fünfjährigen Dürre ein ausgeprägter Wassermangel. Mit mehreren Methoden konnten wir keine ausreichenden Beweise dafür finden, dass der anthropogene Klimawandel das Dürrerisiko erhöhte.

A warm winter 2015/16 followed by a wet spring enabled exceptionally high ecosystem gross primary productivity on the Iberian Peninsula. Climate-ecosystem model simulations show warming winters and increased CO2 availability benefit ecosystem productivity, but no increase in spring precipitation.
Grob übersetzt: Ein warmer Winter 2015/16, gefolgt von einem nassen Frühling, ermöglichte auf der Iberischen Halbinsel eine außergewöhnlich hohe Bruttoproduktivität des Ökosystems. Klima-Ökosystem-Modellsimulationen zeigen wärmende Winter. Eine erhöhte Verfügbarkeit von CO2 wirkt sich auf die Ökosystemproduktivität positiv aus. Die Niederschlagsmenge im Frühling steigt nicht an.
Das wundert nicht, denn so ist es auch dem IPCC seit dem AR5 (2014) [15] und aktuell wieder bekannt:
EIKE 11. November 2018: Zum jüngsten IPCC-Bericht SR-15 von 2018: Von Klimakatastrophen keine Spur!

Der WBGU vermittelt davon vollkommen unbeeindruckt, jedoch ausschließlich eine Aneinanderreihung alarmistischer Aussagen:
WBGU [5]: … Die bis heute beobachtete globale Erwärmung bringt bereits schwerwiegende Veränderungen mit sich, die
sich ganz unmittelbar auf die Lebensbedingungen der Menschen auswirken. Auch in einer 2°C-Welt sind besonders die ärmsten Bevölkerungsgruppen, die bislang am wenigsten von den Vorteilen der Moderne profitieren konnten, am heftigsten betroffen (King und Harrington, 2018).
Diese Studie (King und Harrington, 2018) nimmt einfach an, dass Extremereignisse zunehmen und simuliert darauf aufbauend „Betroffenheiten“:
King und Harrington, 2018 [13]: [12]Climate change is increasing the frequency of heat waveschanging rainfall patternsraising sea levels and damaging coral reefs through increasing bleaching events.

Aus Daten, wie sie das folgende Bild aus der Studie zeigt, „gelingt“ es den Studienautoren, zunehmende „Betroffenheiten“ zwischen einer Temperaturerhöhung von 1,5 Grad und 2 Grad „auszuweisen“.

Bild 1 [13] S/N Ratio (local change in average temperature (the “signal”) and the variability in temperature (the “noise”)) und Bruttoinlandsprodukt (GDP) verschiedener Länder. Grafik vom Autor um die Hilfslinien 1,5/2 °C und Umrahmung von drei Länderbereichen zwischen 1,5 und 2 Grad Globaltemperatur-Erhöhung ergänzt
Weiter geht es mit Extremwetter.
WBGU [5]: Zudem wird erwartet, dass die Stärke tropischer Wirbelstürme mit der Erwärmung weiter zunimmt – sowohl im Mittel als auch hinsichtlich der Zunahme von Stürmen der obersten Kategorie (Sobel et al., 2016).
Diese Studie „entdeckt“, dass derzeit zwar kein Trend mit zunehmender Intensität messbar ist. Aber sie „weiß“, dass dies nur daran liegt, weil in der Vergangenheit zu wenig Intensität vorlag. Und sie weiß auch den Grund: Aerosole haben die „wahren“ – also ohne die Aerosole viel höher ausgefallenen – Intensitäten unterdrückt. Die Studienautoren wissen angeblich ganz genau, was ihre Vorgänger falsch annahmen. Leider finden deren Nachfolger heraus, dass auch deren Annahmen noch viel falscher sein können:
Kaltesonne 15. November 2018: Klimamodelle rechnen mit falschen Rußdaten
Wie wurden die „richtigen“ Daten in „Sobel et al., 2016 „ermittelt? Durch Rückwärtssimulation. Da „klar“ ist, dass die Intensität mit steigender Temperatur zunehmen muss, fällt die simulierte Wirbelsturmzukunft nun natürlich viel schlimmer aus.
Irgendeine Reflexion, geschweige Erwähnung von Studien mit anderen Feststellungen dazu, ist im WBGU-Strategiepapier nicht zu finden, obwohl es davon ebenfalls genügend gibt:
kaltesonne 3.12.2013: Wer hätte das gedacht: Studien können keine Zunahme der tropischen Wirbelstürme im Indischen und Pazifischen Ozean feststellen
kaltesonne 21.12.2017: Neue Modellierungsergebnisse: Wirbelstürme werden in Zukunft wohl seltener und weniger intensiv

Meeresspiegel

Weiter geht es mit den „Belegen“. Zum Meeresspiegelanstieg ist es nicht anders. Das „Wissensgremium“ textet dazu, dass die meisten Studien davon ausgehen, „dass sie bis mindestens Ende des 21. Jahrhunderts nur minimale Auswirkungen auf die Überschwemmungen haben werden“. Das entspricht allen Messungen, ist aber nicht alarmistisch. Also werden wieder Studien gelistet, welche es alarmistischer ausweisen.

WBGU [5]: … Alleine das Schmelzen des antarktischen Eisschilds könnte bis zum Jahr 2100 über 1 m und bis 2500 über 15  m zum Meeresspiegelanstieg beitragen (DeConto und Pollard, 2016). Die höchsten Werte sind für die
Tropen zu erwarten, wo unter einem Business-as-usualSzenario ein Großteil der Atolle durch zunehmende
Überflutungen bereits bis Mitte des 21. Jahrhunderts unbewohnbar sein könnte (Storlazzi et al., 2018).
Liest man die zitierte Studie „DeConto und Pollard, 2016“, trifft man auf die Annahmen der Studienautoren, dass die Antarktis mit einer mittleren Landtemperatur von ca. -40 °C und einer bisher gemessenen Temperaturerhöhung von 1,2°C in hundert Jahren [11] auch vom Land her zu schmelzen beginnen könnte. Die Studienautoren geben zwar selbst zu, dass ihre Simulationsergebnisse rein spekulativ sind, aber als „Beleg“ ist so eine „Simulations-Spekulativstudie“ für die WBGU ausreichend, wissend, dass unsere Umweltministerin sicher niemals fachliche Hintergründe nachprüfen würde:
[6] DeConto and co-author David Pollard, a palaeoclimatologist at Pennsylvania State University in University Park, developed a climate model that accounts for ice loss caused by warming ocean currents — which can eat at the underside of the ice sheet — and for rising atmospheric temperatures that melt it from above.
Ultimately, he and Pollard tested how well different versions of their model simulated the past, and then used the ones that performed best to project future sea-level rise. They found that over time, atmospheric warming would become the main driver of ice loss.
“I think their processes
are still a bit speculative, … suggests that Antarctic ice melt driven by rising greenhouse-gas emissions could boost global sea levels by up to 39 centimetres by 2100, and by as much as 3 metres by 2300.

Um die Verschlimmerung zu erreichen mussten die Autoren das Extremszenario RCP8.5 zusätzlich um alarmistische Annahmen erweitern. Das entsprechende Bild in „DeConto und Pollard, 2016“ sieht wie folgt aus:

Bild 2 Figure 5 (Auszug a) Large Ensemble model analyses of future Antarctic contributions to GMSL. a, RCP ensembles to 2500. Quelle: DeConto und Pollard, 2016

Für das typische – zum Beispiel vom DWD in seinem Klimaatlas immer angezeigte – Szenario RCP2.6 liefert auch diese Studie für das Jahr 2100 nur einen simulierten Pegelanstieg von +11 (+-11 cm) und trifft damit gut den Wert, welchen der renommierte – aber nicht alarmistisch geneigte – Pegelfachmann, Prof. (Emeritus) Mörner als wahrscheinlichen Wert angibt.

Was in der Studie – aber nicht beim WBGU – steht: In vergangenen Warmzeiten war der Meeresspiegel bei gleicher CO2-Dichte auch schon 10 … 30 m höher als derzeit. Ohne auch nur entfernt zu wissen, woran das wirklich lag, wird einfach davon ausgegangen, dass bei den aktuellen, etwas über 400 ppm CO2 damit 30 m „zu wenig“ Pegel herrschen. Steigt das CO2 (oder auch nicht), „explodiert“ nach der CO2-Theorie folglich der Seepegel in den Simulationen.
Eine Kausalität, welche allerdings keinesfalls stimmen muss. Und auch nicht naheliegt, da es einen anderen Schluss zulässt: Der CO2 Gehalt hatte in der Vergangenheit (und damit auch heute) keinen signifikanten Einfluss auf den Meerespegel. Seine gravierenden Veränderungen um weit über 100 m haben andere Ursachen. Läge der Pegel im Jahr 2500 wirklich bei +15,65 m, würde sich lediglich wiederholen, was in vergangenen Eiszeiten ohne jegliches menschliche Zutun schon geschehen ist. Im Kampf gegen das CO2 wäre dann allerdings jeder Cent nutzlos vergeudet.

Hemmungslos wird nun allerdings wirklich alles gelistet, wenn es nur irgendwie einen Klimaalarm „belegen“ kann. Auf die Qualität der „Belegführung“ wurde dabei leider wenig geachtet:
WBGU [5]: … Auch der Anstieg des globalen Meeresspiegels hat sich durch die globale Erwärmung weiter beschleunigt (Chen et al., 2017; Nerem et al., 2018) und wird in den kommenden Jahrzehnten und Jahrhunderten die Lebensbedingungen vieler Millionen Menschen entscheidend prägen (IPCC, 2014)
Nehme man die Studie „Nerem et al., 2018“. Dieser „gelingt“ es wie üblich mit statistischen Tricks – eher Falschanwendung -, aus lange bekannten Daten „neue, bisher unbekannte Inhalte“ herauszurechnen, welche bisher angeblich alle Fachpersonen übersehen haben. Das Ergebnis: viel mehr Klimaalarm, als bisher geahnt wurde.
In einem Artikel wurde das vom Autor bereits rezensiert:
EIKE 06.03.2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 1)
kaltesonne informierte ebenfalls darüber: Der Meeresspiegel
Mitte Februar ging eine erschreckende Mitteilung durch alle Medien, auch die
Tagesschau mahnte: Der Pegel steigt nicht linear sondern quadratisch und bis Ende des Jahrhunderts haben wir 65 cm zu erwarten! Bei linearem Anstieg mit den heutigen Raten von ca. 3mm/a wären es nur beherrschbare 25 cm. Was steckte dahinter? Die Eilmeldungen gingen zurück auf diese Arbeit unter Führung von  Robert S. Nerem von der Universität Boulder/Colorado. Darin hatten die Autoren die Schwankungen des Meeresspiegels die ENSO erzeugt, aus den Beobachtungen heraus rechnen sollen. Ein ElNino lässt es im Ostpazifik viel mehr regnen und das viele Wasser im Ozean führt zu einem temporären Anstieg des globalen Meeresspiegels. Umgekehrt, bei einer LaNina, wird viel Regenwasser auf Land (besonders Australien)  zwischengespeichert und dieser vorübergehende Mangel im Ozean ist auch global deutlich sichtbar.
Wie Sie in Abb. 6 gut sehen können, hatten wir nahe dem Beginn der Satellitenaufzeichnungen 1998 einen Wasserüberschuss, nach 2010 einen Mangel und 2017 wieder zu viel. Die beteiligten Autoren entfernten jedoch diese natürlichen Schwankungen nicht vollständig, wie sich bald
herausstellte. Dadurch ging der jüngste El Nino zumindest teilweise in die Rechnungen ein und beeinflusste den Trend, ebenso die LaNina 2011/12 und der ElNino 1997/98. Diese zeitliche Verteilung muss einen wachsenden Trend produzieren. Mit diesem Lapsus in den Daten legte man in Nerem et al (2018) einen quadratischen Fit und extrapolierte flugs bis 2100. Ein solches Verfahren impliziert einen Anfängerfehler, den man „Overfitting“ nennt. Eine viel zu kleine  Datenbasis von 1993 bis 2017, hier auch noch fehlerbehaftet, erzeugt einen viel zu sicher geglaubten Trend bis 2100.

Weil auch dies immer noch nicht immer für einen großen Alarm „reicht“, dürfen beim WBGU Studien auch neue, schlimmer als die schlimmsten IPCC-Szenarien simulierende Zukunftsannahmen fabulieren: „scenarios, respectively (2223); and RCP8.5+icesheet collapse“ ..

Klimaflüchtlinge

Entsprechend sind die Ableitungen der Anzahl Klimaflüchtlinge:
WBGU [5]: … Obwohl allein schon die Definition einer Migrationsentscheidung aufgrund des Klimawandels schwierig ist und deshalb auch die Zahlen in der Literatur stark voneinander abweichen (Adger et al., 2014), soll hier beispielhaft eine Abschätzung der Weltbank zu Binnenmigration genannt werden: Bis zum Jahr 2050 könnten in Afrika südlich der Sahara, Südasien und Lateinamerika mehr als 143 Mio. Menschen klimabedingt zum Aufbruch gezwungen werden (Rigaud et al., 2018).
Von der in der wissenschaftlichen Wirklichkeit diskutierten Problematik solcher Zählungen findet sich wieder keine Spur:
kaltesonne 14.3.2018: ETH Zürich zum Konzept eines klimawandelbedingten Flüchtlingsanstiegs: Spekulativ und nicht ausreichend durch solide Daten untermauert
kaltesonne: Ausführliche Kritiken an der Asyl-Prognose in „Science“
… In der aktuellen Ausgabe von „Science“ hatte ich eine Studie entdeckt, die mir seltsam vorkam. Anhand einer simplen statistischen Korrelation sagen die beiden Autoren die Auswirkung der globalen Erwärmung auf die Zahl von Flüchtlingen vorher, die aus Nordafrika nach Europa ziehen.
Meine Recherche ergab, dass die Studie tatsächlich äußerst zweifelhaft ist. Ich zitiere
in meinem Artikel auf SPIEGEL ONLINE diverse Experten. Weil ich naturgemäß jeweils nur kleine Teile ihrer Aussagen zitieren konnte, stelle ich die interessanten Stellungnahmen der von mir befragten Wissenschaftler hier in voller Länge vor:
Weiterlesen im Blog von Axel Bojanowski.
Teil 2 des Weihnachtswunders steuerte der ansonsten in Klimafragen so unkritische Focus bei.
Auch dort lehnte man die neue Arbeit ab und verwahrte sich gegen aktivistisch gefärbte Forschung. War Michael Odenwald bereits im Weihnachtsurlaub? Focus am 22. Dezember 2017:
“Hochspekulativ und dumm”: Forscher zerlegen Studie, die neue Flüchtlingswelle prognostiziert
[..] Doch nun regt sich in der wissenschaftlichen Gemeinde Zweifel an der Studie. William Briggs von der Universität Cornell sagte gegenüber dem “Spiegel“: “Die dümmste, idiotischste Anwendung von Statistik, die ich seit Langem gesehen habe.” Auch Tobias Ide vom Georg-Eckert-Institut in Braunschweig warnt davor, “den Zusammenhang zwischen wärmeren Temperaturen und Migration derart vereinfacht darzustellen”. Die Wissenschaftlicher der Columbia University hatten demnach lediglich analysiert, wie hoch und lange die Temperatur in den Maisanbaugebieten bestimmter Länder über 20 Grad gestiegen war – und dann festgestellt, dass in solchen Zeiten mehr Asylanträge aus diesen Ländern gestellt wurden.
Ganzen Artikel auf focus.de lesen.

Auffällig ist, dass das Hauptproblem vieler in den Vulnerabilitätssimulationen betrachteten Länder – die extreme Geburtenrate und zunehmend auch „Sozialleistungsmigration“ [16] – (bewusst?) keine Erwähnung und Betrachtung findet. Für die WBGU gilt für alle aktuellen und zukünftigen Übel als Ursache alleine das anthropogene CO2.

Die Klima-Flüchtlingskrise

Zur Begründung wiederholt das Strategiepapier einfach alle bekannten Allgemeinplätze:
WBGU [5]: .. Im 21. Jahrhundert stehen wir am Beginn einer Flüchtlingskrise, die sich bezüglich Ursache und Dynamik nicht mit der des frühen 20. Jahrhunderts vergleichen lässt, aber schlussendlich zu noch größerem Leid führen könnte. Die Rede ist von der anthropogenen Erderwärmung, die den Meeresspiegel steigen lässt, den globalen Wasserkreislauf verändert, die Extremwetterregime verschärft ganze Vegetationszonen verschiebt und dadurch die Lebensgrundlagen von hunderten Millionen Menschen bedroht. Bereits heute, da die planetare Oberflächentemperatur nur um etwa 1°C gestiegen ist, kommt es zu klimabedingten Migrationsbewegungen (Ionesco et al., 2017; IDMC und NRC, 2017).
Die durch den Bürgerkrieg in Syrien ausgelöste Flüchtlingskrise im Nahen Osten und Europa dürft schon ursächlich mit dem Klimawandel verknüpf sein, denn eine Jahrtausenddürre im „Fruchtbaren Halbmond“ verschärft ab 2011 die sozialen und politischen Spannungen in der Region (Kelley et al., 2015, 2017).
Auch dazu keinerlei Erwähnung kritisch eingestellter Darstellungen:
EIKE 22.02.2016: SPIEGEL ONLINE: Der Klimawandel ist nicht für den Syrienkrieg verantwortlich
EIKE 21.09.2016: Ist der „Arabische Frühling“ wirklich wegen unserem CO2 gescheitert? Eine von Herrn Rahmstorf begrüßte Studie legt es nahe
kaltesonne 29.2.2016: Deutsches Klimakonsortium pfeift Rahmstorf zurück: Klimawandel ist nur ein Treiber von vielen im Syrienkonflikt
Und weiter geht es im ausschließlich klimaalarmistischen Stil.
WBGU [5]: .. Völlig unbestreitbar ist der kausale Zusammenhang zwischen dem menschengemachten Klimawandel und der Existenzbedrohung flacher Inselstaaten. Selbst wenn die Begrenzung der Erderwärmung auf 2°C gelingen sollte, dürft ein Meeresspiegelanstieg im Meterbereich ganze Territorien versenken – und damit nationale Identitäten im konventionellen völkerrechtlichen Sinn auslöschen (Storlazzi et al., 2018). Die entsprechenden Staatsvölker können ihr Überleben dann nur durch Verlassen ihrer schwindenden Länder sichern.

Während aktuell keine AGW-zuordenbare Bedrohung festgestellt werden kann:
EIKE 27. April 2018: SOS Südsee – Der Ozean steigt nicht übernatürlich, dafür umso stärker die Propaganda in der öffentlich-rechtlichen Berichterstattung (Teil 2)
„gelingt“ es dieser zitierten Studie „Storlazzi et al., 2018“ in Simulationen und unter Annahme besonders schlimmer Randbedingungen und Verstärkungseffekte, Zukunftsbedrohungen zu erzeugen.

Bild 3 Storlazzi et al., 2018: Fig. 5 The projected percentage of Roi inundated because of SLR and flooded annually because of the combined effects of waves and SLR through time for different SLR and climatic scenarios.

Eine solche, rein tendenzielle „Studie“ müsste man ablehnen

Jeder Vernünftige (zumindest der Autor) würde das Papier postwendend zurückweisen und dem Beirat auferlegen, erst einmal eine neutral bewertende und damit glaubhafte Darlegung zu erarbeiten, beziehungsweise diesen Beirat als für solche Aufgaben wohl ungeeignet in Frage stellen. Dazu muss man kein Fachmann sein, sondern nur eben einige der zitierten, „belegenden“ Studien orientierend sichten und sich über den wirklichen Wissensstand, vor allem die weltweiten Messdaten informieren.

Wenn es um Klimapolitik geht, sucht man solches im Berliner Politikbetrieb leider vollkommen vergeblich. Und die Auswahl der Beiratsmitglieder erklärt es auch: Die „Fachwissenschaft“ Klima – hier allerdings nur im Rahmen von Klima-Simulationen, denn das PIK forscht nicht wirklich übers Klima – ist alleine durch Herrn Schellnhuber vom PIK repräsentiert, der Rest sind wohl ohne Übertreibung „Nachläufer“ zur Umsetzung seiner Visionen [10].
Beirat des WBGU
Prof. Dr. Sabine Schlacke (Vorsitzende): Rechtswissenschaftlerin
Prof. Dr. Dirk Messner (Vorsitzender): Politikwissenschaftler
Prof. Dr. Martina Fromhold-Eisebith: Wirtschaftsgeographin
Prof. Dr. Ulrike Grote: Agrar- und Entwicklungsökonomin
Prof. Dr. Ellen Matthies: Psychologin
Prof. Dr. Karen Pittel: Ökonomin
Prof. Dr. Dr. h.c. Hans Joachim Schellnhuber CBE: Physiker
Prof. Dr. Ina Schieferdecker: Digitalisierungswissenschaftlerin
Prof. Dr. Uwe Schneidewind: Nachhaltigkeitswissenschaftler

Doch das Gegenteil passiert

C. Roth ist dafür nur eines der vielen möglichen Beispiele. Wohl überall, wo man das Hirn abschalten und einem GRÜNEN, oder Antifa-Mainstream hinterherlaufen kann, ist sie dabei. Da dürfen die Klimaflüchtlinge nicht fehlen.
WELT 09.11.2018: [1] Vor dem Parteitag der Grünen hat Claudia Roth eine Ausweitung des Asylrechts etwa für Klimaflüchtlinge gefordert.
Vor dem Grünen-Parteitag in Leipzig fordert die frühere Vorsitzende Claudia Roth, das Asylrecht zu erweitern. „Wir müssen die Kriterien für das Recht auf Asyl ausbauen. Beispielsweise ist der Klimawandel mittlerweile eine Fluchtursache“, sagte die Bundestagsvizepräsidentin dem Redaktionsnetzwerk Deutschland. Die EU müsse als eine Hauptverursacherin der Klimakrise mit einer Initiative zur Aufnahme bedrohter Menschen vorangehen.

Der GRÜNE Nachwuchs ist nicht besser

WELT 09.11.2018: [1]Unterstützung bekam sie von Grüne-Jugend-Chefin Ricarda Lang. Erstes Ziel müsse sein, dass durch eine „radikale Klimapolitik“ Menschen am besten erst gar nicht in die Lage gebracht werden sollten, ihre Heimat zu verlassen. Für Inselstaaten wie Kiribati reiche das aber nicht mehr aus, sie würden bald unbewohnbar. „Diese Menschen müssen die Chance zur frühzeitigen und würdevollen Migration erhalten“, sagte sie …
Man würde meinen, im Zeichen von Internet und google kämen solche Personen irgendwann doch noch auf die Idee, sich die leicht erreichbaren Fakten anzusehen. Wenn es allerdings die WBGU-Beiratsmitglieder, welche sich alle als Professoren ausweisen schon nicht machen, und Umweltminister*innen, sowie die regelmäßig auf Spesen zu den Klimagipfeln eilenden ca. 30.000 „Fachpersonen“ ebenfalls nicht:
[17] EIKE 27.11.2017: Die Rede unseres Bundespräsidenten, F. W. Steinmeier auf COP23 über den Klimawandel war (k)eine investigative Sternstunde – Teil 1 (2)

Wie kann man es dann von politischen (möchtegern-)Größen erwarten. Leider summiert sich Halbwissen statistisch nicht und damit bleibt ideologiebedingt bestehen, was wir aktuell schon haben.
EIKE 15.04.2017: Im Klimawandel-Unterricht bitte üben, wie man unsere Regierung zum Bezahlen von Schutzgeldern auffordert
EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife
Es lässt sich zeigen, dass ausgerechnet das laut dieser Frau Lang „bald unbewohnbare“ Kiribati mit einem gemessenen Pegelanstieg von 0,58 mm/pa (5,8 cm in hundert Jahren) die niedrigste Anstiegsrate aller Pazifikinseln (und weit unter dem Weltdurchschnitt) aufweist. Einfach nur unverschämt, wie daraus abgeleitet wird, dass diese Atollgruppe „bald unbewohnbar“ würde (und es die Redaktion der „WELT“ unkommentiert weitergibt).

Bild 4 [14] Tidenpegel Kiribati und eine längere Pegelreihe von Neuseeland. Alle Pegel vom Autor auf das Jahr 2012 normiert. Quelle: PSMSL Viewer
Immer mehr tropische Stürme können auch nicht sein:

Bild 5 [14] Anzahl von Wirbelstürmen der Kategorie 5 in der Region Südpazifik/Australien. Quelle: Paul Homewood / Wikipedia
Und ein „noch nie“ in der jüngeren Klimageschichte dagewesener Pegel ebenfalls nicht:

Bild 6 [14] Langfristiger globaler Meerespegelverlauf und CO2-Konzentration. Quelle: No Tricks Zone: AGW ‘Disaster’ Predictions RecycledVerlauf eines Proxis der Marshall-Inseln im westlichen Pazifik

Es gibt kein Problem, welches GRÜNE nicht erkennen und lösen

Jeder sollte sich die 10 Minuten Zeit nehmen und das Video der Präsentation dieser GRÜNEN Europawahl-Kandidatin ansehen.

Bild 7 GRÜNE Europawahlkandidatin. Rede (und Link zu YouTube) Ska Keller – Rede auf dem Bundesparteitag 2018 in Leipzig

Man muss sich allerdings trotzdem fragen, ob die GRÜNEN nicht zuletzt noch von einer inzwischen außer Kontrolle geratenen Kanzlerin überholt werden:
Tichys Einblick 13. November 2018: Migration – einklagbares Recht unter dem Dach der Bundesrepublik

Quellen

[1] WELT 09.11.2018: Claudia Roth fordert eine Ausweitung des Asylrechts

Stand: 09.11.2018

[2] Achgut 09.11.2018: Wenn das Klima in die Flucht treibt

[3] NDR Talkshow: Grünen-Vorsitzende Annalena Baerbock

[4] ScienceScepticalBlog 28. September 2018: Der Meeresspiegelanstieg

[5] PIK Nachrichten 31.08.2018:Zeit-gerechte Klimapolitik: vier Initiativen für Fairness

[6] DeConto und Pollard, 2016, Nature 2016: Antarctic model raises prospect of unstoppable ice collapse Sea levels could rise by more than 15 metres by 2500 if greenhouse-gas emissions continue to grow.

[7] EIKE Der jüngste IPCC-Bericht SR-15 von 2018: Von Klimakatastrophen keine Spur!

[8] Storlazzi et al., 2018: Most atolls will be uninhabitable by the mid-21st century because of sea-level rise exacerbating wave-driven flooding

[9] WBGU Politikpapier 9, 2018: Zeit–gerechte Klimapolitik: Vier Initiativen für Fairness

https://www.wbgu.de/de/pp9/

[10] EIKE 25.05.2018: Zu jedem Parteitag eine Freifahrt in der Klima-Geisterbahn

[11] Umweltbundesamt: Das Klima der Antarktis

[12] Resilience: King und Harrington, 2018 Exceeding 1.5C of Global Warming will Hit Poorest the Hardest

[13] King und Harrington, 2018: The Inequality of Climate Change From 1.5 to 2°C of Global Warming

[14] EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife
[15] EIKE, 20.06.2017: Gegen Klimaflüchtlinge helfen nur noch C. Juncker und der Pariser Klimavertrag Alternativ: Nicht der Klimawandel bedroht uns, sondern unsere Politiker

[16] EIKE 09. Juli 2018: Überbevölkerungsprobleme bekämpfen wir ganz aktiv – durch noch mehr CO2-Reduktion

[17] EIKE 27.11.2017: Die Rede unseres Bundespräsidenten, F. W. Steinmeier auf COP23 über den Klimawandel war (k)eine investigative Sternstunde – Teil 1 (2)

[18] Klimafakten.de: Behauptung: „Der CO2-Anstieg ist nicht Ursache, sondern Folge des Klimawandels“

23 Nov 19:15

„Wir haben es wirklich vermasselt“ – Wissen­schaftler räumt Fehler in der hochge­jubelten Studie bzgl. globaler Erwärmung ein.

by Chris Frey

Der Studie von Laure Resplandy et al. zufolge, welche diesen Monat in dem angesehenen Journal Nature veröffentlicht worden ist, ist eine große Menge der fehlenden Wärme aus der globalen Erwärmung – 60% mehr als bislang gedacht – von den Ozeanen absorbiert worden.

Natürlich löste diese schockierende Entdeckung in den Mainstream-Medien viel Begeisterung aus. Umwelt-Korrespondenten auf der ganzen Welt sprachen von dem Beweis, dass die Globale-Erwärmung-Krise viel schlimmer als jemals ist.

Allerdings war diesem so bejubelten Untergangs-Szenario nur ein kurzes Leben beschieden. Ein unabhängiger Analyst, nämlich Nic Lewis, nahm die Studie unter die Lupe und erkannte sofort, dass sie auf einer völlig falschen Mathematik beruht.

Das Global Warming Policy Forum berichtet:

Der unabhängige Klimawissenschaftler Nicholas Lewis hat einen grundlegenden Fehler entdeckt in einer wissenschaftlichen Studie aus jüngster Zeit, welcher in den englisch-sprachigen Medien breiter Raum zur Verfügung gestellt wurde. Die Studie, durchgeführt von einem Team unter Leitung des Ozeanographen bei Princeton Laure Resplandy, behauptet, dass sich die Ozeane schneller erwärmt haben als ursprünglich gedacht. In den Nachrichten vieler Medien, darunter BBC, der New York Times, der Washington Post und des Scientific American, wurde berichtet, dass die Bedeutung dieses Ergebnisses darin liegt, dass sich die Erde sogar noch schneller erwärmen könnte als gegenwärtig eingeschätzt.

Allerdings hat Lewis herausgefunden, dass der Erwärmungstrend in der Resplandy-Studie erheblich von dem Trend abweicht, welcher sich aus den der Studie beigefügten Daten ergibt. Lewis hat viele begutachtete Studien zum Thema Klima-Sensitivität durchgeführt und mit einigen führenden Klimawissenschaftlern der Welt zusammengearbeitet.

Berechnet man den Trend korrekt, ist der Erwärmungstrend keineswegs schlimmer als gedacht – er liegt vielmehr sehr auf der Linie früherer Schätzungen“, sagt Lewis.

Lewis zufolge sind tatsächlich auch einige andere Behauptungen in der Studie, die ebenfalls Eingang in die Medien gefunden hatten, ebenfalls falsch.

Ihre Behauptungen zu der Auswirkung einer schnelleren Ozean-Erwärmung auf Schätzungen der Klima-Sensitivität (und damit der zukünftigen globalen Erwärmung) sowie bzgl. des Kohlenstoff-Budgets sind sowieso falsch, aber das ist ein zweitrangiger Punkt verglichen mit ihrem Berechnungsfehler, von dem wir jetzt wissen“.

Inzwischen hat einer der Ko-Autoren der Studie, nämlich Ralph Keeling, die Flucht nach vorn angetreten und den Fehler eingeräumt – und darauf hingewiesen, dass dieser Fehler die ganze Studie effektiv invalide macht:

Unglücklicherweise haben wir hier Fehler gemacht“, sagte Ralph Keeling, ein Klimawissenschaftler beim Scripps und Ko-Autor der Studie. „Ich denke, die hieraus zu ziehende Hauptlehre ist, dass man so schnell wie möglich den Fehler fixieren muss, wenn man ihn gefunden hat“.

Keeling zufolge besteht das zentrale Problem darin, wie die Forscher mit der Unsicherheit in ihrem Messungen umgegangen waren. Als Folge davon werden die Ergebnisse beeinträchtigt durch zu große Zweifel, um definitiv die Schlussfolgerung der Studie darüber zu stützen, wie viel Wärme die Ozeane nun wirklich mit der Zeit absorbiert haben.

Die zentrale Schlussfolgerung der Studie – nämlich dass die Ozeane sogar noch mehr Energie zurückhalten als das Klimasystem der Erde in jedem Jahr – liegt auf einer Linie mit anderen Studien, welche zu ähnlichen Ergebnissen gekommen waren. Und das hat sich trotz der Fehler kaum geändert. Aber Keeling sagt, dass die falschen Berechnungen der Autoren bedeuten, dass tatsächlich eine viel größere Fehlerbandbreite in den Ergebnissen vorhanden ist. Das wiederum bedeutet, dass die Forscher diesen Ergebnissen viel weniger Gewicht beimessen dürfen als gedacht.

Ich übernehme die Verantwortung für das, was hier geschehen ist, weil es meine Aufgabe ist sicherzustellen, dass jene Art von Details bekannt gemacht wird“. Soweit Keeling.

Es gibt hier aber noch weitergehende Lehren, welche – wie schon so oft zuvor – wahrscheinlich vom Klima-Alarmisten-Establishment vollständig verloren gehen.

Eine Lehre lautet, dass Klimaskeptiker keine wissenschaftlichen Ignoranten sind. Sie weisen eine große Vielfalt unabhängiger Experten auf wie Nic Lewis. Sie alle haben sich bei vielen Gelegenheiten als intellektuell gewandter und besser informiert erwiesen bzgl. Klimawissenschaft als die alarmistischen „Konsens“-Torwächter in Akademien und Institutionen wie NASA und NOAA.

Eine weitere Lehre ist – wie schon seit Klimagate klar ist – dass das Begutachtungs-Verfahren für wissenschaftliche Studien, besonders wenn diese etwas mit Klimawandel zu tun haben, ad absurdum geführt worden ist. Zu oft war es einfach ein kumpelhaftes Begutachtungs-Verfahren, in welchem man sich gegenseitig auf die Schultern klopfte ob der hervorragenden Leistungen. Der Appetit der Alarmisten auf „Beweise“, welche ihre Untergangs-These stützen ist: je ängstigender die Ergebnisse sind, umso wahrscheinlicher ist deren Veröffentlichung.

Eine dritte Lektion lautet, dass man den Mainstream-Medien einfach nicht vertrauen kann, dass sie irgendwie gearteten Zweifeln an alarmistischen Studien Raum geben. Kein Umwelt-Korrspondent verfügt über die erweiterten mathematischen Kenntnisse, welche Nic Lewis an den Tag legte beim Auffinden der Fehler in der Studie.

Aber es bleibt die Tatsache, dass es keinen einzigen Wissenschafts- oder Umwelt-Korrespondenten gibt in Verbindung mit einer Veröffentlichung in den Mainstream-Medien, der darauf vorbereitet ist, Angst erzeugende Studien bzgl. globaler Erwärmung angemessen zu beurteilen. Sie sind allesamt dem alarmistischen Konsens so verhaftet, dass sich fast nie die Mühe machen, eine Presseerklärung zu korrigieren.

Und schließlich, man erwarte nicht, dass dieser beschämende Widerruf auch nur ansatzweise so hervorgehoben wird wie die Original-Story. Genau so funktioniert nämlich die Angst-Masche: Die Hysterie wird stets nur gesteigert, aber niemals zurück gefahren.

Link: https://www.breitbart.com/politics/2018/11/14/delingpole-we-really-muffed-it-scientist-admits-error-in-hyped-global-warming-study/

Übersetzt von Chris Frey EIKE

23 Nov 19:15

Halbschlaf – Ein Zwiegespäch

by Andreas Demmig

Die Stimme: Tja, das liegt nun an dem CO2. In der Luft sind insgesamt etwa 0,4 Promille enthalten. Das ist natürlich nur ein Spurengas. Rechnen wir einfach jedes Jahr mit einer Zwei und Spurengas, also  2,0004 * 2,0004 und tun alles, was mehr als 4 ist, in eine extra Schachtel. Diesen Rest fügen wir unserem jährlichen Ergebnis hinzu. Dann sieht in den ersten Jahren alles so aus wie immer, den Inhalt der Schachtel können wir glatt vernachlässigen. Aber, bereits nach rund 645 Jahren ist der winzige Rest zu einer ganzen Zahl gewachsen und es kommt dann 2 x 2 + Rest = 5 raus! Und das ist eine Katastrophe: Keine Brücke würde mehr halten, kein Kraftwerk funktionieren und die Zivilisation würde zusammen brechen! Also, damit siehst Du, das auch solch kleine Spuren etwas bewirken, wenn es nur lange genug zum Wirken aufgehoben wird.

Ich: Das ist ja nur ein Taschenspielertrick und hat mit Mathematik gar nichts zu tun. Die Realität ist doch ganz anders. Genauso wie die Behauptung, die – wie auch immer errechneten – 0,7 Grad C /100 Jahre Temperaturerhöhung wären schlecht für die Menschheit.  Wir wissen doch, dass es in der Vergangenheit viel größere Temperaturänderungen und auch schneller gab. In Warmzeiten ging es den Menschen gut, alle hatten genügend zu essen und konnten sich um Dinge  kümmern, die nicht mit dem unmittelbaren Überleben zu tun hatten. Wie hart war es dagegen, als sogar die salzige Ostsee zugefroren war.

D.S.: Das mag sein, aber Du wirst doch nicht abstreiten, dass es heutzutage wärmer ist als damals. Und die Arktis ist eisfrei und die Eisbären kommen um, weil sie nicht genügend Eisschollen haben. Am Südpol ist auch zu wenig, die Pinguine verlieren ihre Feder, weil es denen zu warm wird.

Ich: Na, das kenne ich aber anders: Seit etwa 1960 haben sich die Eisbären von geschätzten 5.000 auf mehr als 25.000 vermehrt, außerdem brauchen sie keine Eisscholle zum jagen, sondern suchen ihre bevorzugten Robben immer in der Nähe des Ufers, egal ob Eisscholle oder nicht. Und am Südpol brüten die Pinguine zur dortigen Sommerzeit, wenn einige Ufergebiete eisfrei sind. Dann finden die auch mehr Nahrung.

Im Übrigen gab es bereits schon früher alarmistische Meldungen in den Medien “ Die Arktis ist eisfrei“, das war 1934. Später, um 1941, gerade als deutsche Soldaten nach Norden und Osten zogen, waren besonders strenge Winter bis zu minus 50°C angesagt, was denen gar nicht gut bekommen war.

1974 wieder, haben die Medien vor der nächsten Eiszeit gewarnt und Rudi Carrell sang darauf  „Wann wird’s mal wieder richtig Sommer?“ Schau mal auf die Grafik der Eisbedeckung der Pole. Am Südpol, im Durchschnitt seit 1974 unverändert [2], am Nordpol etwas weniger [3], aber das darf man wohl erwarten, wenn damals gerade Angst vor der nächsten Eiszeit geschürt wurde.

D.S.: Du hast ja Recht, aber das wissen die damals gerade geborenen doch heute nicht mehr.

Der diktatorische Präsident der Malediven hielt medienwirksam unter Wasser eine Konferenz ab. Das hat Eindruck gemacht und die westlichen Staaten sollen Entwicklungshilfe zahlen.

Ich: Na hör mal, inzwischen müsste der für so eine Konferenz wohl tiefere Wasser aufsuchen, außerdem hat er den schon fertigen Bericht über die wissenschaftliche Untersuchung des Wasserpegel an seinen Inseln unterdrückt, wegen unliebsamer Ergebnisse. Der Pegel ist schon seit vielen Jahren nicht gestiegen, im Gegenteil gefallen.

Und wie ist es nun mit der Emissionsschutzverordung, wieso wird denn für CO2 Geld verlangt? Etwas das jedes Lebewesen ausatmet und die Bier- und Weinhersteller und vor allem die Vulkane?

D.S.: Tja, denk doch mal drüber nach, die Idee mit dem CO2 ist doch einfach genial. Das IPCC hat 2001 ausgewiesen, dass nur knapp 3% des gesamten CO2 auf der Erde den Menschen angerechnet wird [1]. Damit nicht auffällt, dass das so wenig ist, schreiben alle auch nur von gesparten Tonnen CO2 und nicht in Prozent zum Ganzen. Da wird für etwas, auf dem unser Leben auf der Erde basiert und das überall auftritt, Geld verlangt. Das hilft zwar nur den Geschäftemachern, aber macht wie der Ablasshandel ein gutes Gewissen. Du darfst nicht vergessen, unsere Regierung hat noch immer keine Rückstellung für die immer höher ausfallenden Beamtenpensionen. Hast Du eine Ahnung was uns die Banken noch kosten? Nur die Dummen dachten, dass die LKW Maut tatsächlich für die Reparatur der Straßen genommen werden.

Ich: Also ist es wie schon immer, die einen sitzen an der Quelle, haben viel Geld und hoffen auf noch mehr. Wie z.B. die Zerschlagung einer funktionierenden und bezahlbaren Energieversorgung: Die Windkrafthersteller haben die Milliardengrenze im Umsatz längst überschritten, die Solarzellenhersteller in Asien haben ebenfalls das lukrative Geschäft entdeckt. Die Banken machen mit der Finanzierung immer guten Gewinn ohne großes Risiko. Die vielen privaten Investoren hoffen auf gute Gewinne, abhängig von den Launen der Politik. Die bisher vom Kartellamt kontrollierten Energiekonzerne haben ebenfalls ihre Kosten gedeckt, denn die garantierten Abnahmepreise und Investitionen in neue, diametral entgegengesetzte Strukturen werden natürlich weitergegeben. Der einzige der dabei verliert ist der Verbraucher, der das alles zahlen muss, ob er will oder nicht. Warum gibt es z. B. keinen Tarif „Atom- und Kohlestrom“?

Wo dabei irgendwann mal bezahlbare, günstige Strompreise herauskommen sollen ist völlig unklar, denn die vielen, privaten Stromerzeuger werden ihre Einnahmen mit allem was sie haben verteidigen. Politiker wollen schließlich wieder gewählt werden.

Das UBA will dreimal soviel Windkraftwerke aufstellen lassen und die Hälfte der Dachflächen sollen Solarzellen bekommen. Die andere Hälfte soll Solarthermeanlagen tragen.

Der Bund Naturschutz kann dann die „Natur“ in seinem  Namen streichen.

D.S.: Du siehst das alles zu hart. Denk doch mal an die vielen Arbeitsplätze, die dadurch geschaffen wurden.  Da nach jeder Fertigstellung eines Windspargels nur noch wenig zu tun ist, muss natürlich weitergebaut werden.

Solange jedenfalls, bis jeder in Deutschland ein Investor ist und wir untereinander Tauschhandel betreiben, denn das Geld wird ja für Energie und Mehrwertsteuer aufgebraucht.

Damit haben wir in Optimierung der Ich-Ag’s keine Arbeitslosen mehr, nur Gewinner. Die paar Verlierer, die partout nicht investieren wollen sind selber schuld, auch wenn Sie nichts dafür können.

Neue Zeiten haben schon immer Anpassungen gefordert. Für die Welt sind wir bestimmt ein Vorbild, denn wir Deutsche werden bestimmt weniger werden, das bedeutet weniger Konsum aber auch weniger Exportüberschuss, außerdem müssen die paar unverbesserlichen Optimisten, die ihre Industrie noch nicht verlagert haben, zuverlässigen Strom aus dem Ausland beziehen. Diese Wertschröpfung verbessert die Handelbilanz. Du siehst also, das ist ein ganz großer Plan mit dem was alles dran hängt.

Ich: Das muss ich erst mal verdauen. Kannst Du mir denn zum Abschluss die nun richtige Temperatur der Erde nennen? Unsere Kanzlerin will doch den Anstieg auf 2 Grad begrenzen?

D.S.: Na ja, das ist nichts als eine politische Schaumschlägerei wie das Glühbirnenverbot und gibt es nur bei uns. Stell Dir mal vor, die Leute würden nachdenken, das IPCC gibt eine Klimawirksamkeit bei Verdoppelung des CO2 Gehaltes von 0,9 Grad an. Die Verdoppelung würde aber bedeuten, dass alle bekannten Kohle, Öl usw. Vorräte auf einen Schlag verbrannt werden würden. Was da dran ist, kannst Du Dir nun selber denken. Außerdem ziehe ich demnächst in Richtung Süden wo es wärmer ist. Der letzte kalte Winter war ein deutliches Zeichen für die abnehmende Temperatur, deshalb sprechen die Medien und ihre gefälligen, von Fördergeldern abhängigen Wissenschaftler nun nur von Klimaänderung. Damit passt es immer.

Nur nicht zuviel Ausbildung der Massen, denn physikalische Grundlagen und Fachwissen waren schon immer der Tod von grünen Visionen.

Ich: Andreas Demmig

 

Aufgeschrieben Anfang Sep. 2010 und m.e. noch immer nicht veraltet.

Damals war u.a. einem Amateur aufgefallen, dass der Satellit ‚NOAA-16‘ (amerikanischer Wetterdienst) bereits lange Zeit falsche Temperaturen meldet. Z.B. sollte das Wasser im Michigan See z.T. mehr als 100°C haben. Diese Daten werden automatisch ausgewertet und dienen der Argumentation einer trotz gefühlter Kälte weiter gestiegenen Erwärmung.

Das Neueste: Weil es wärmer wird haben wir tiefere Temperaturen! Und deshalb friert die Ostsee zu.

23 Nov 19:15

Energiespeicher sind noch nicht verfügbar, für einen Einsatz im Stromsystem

by Andreas Demmig

Das beste Beispiel ist der scheinbar erfolgreiche Einsatz eines TESLA Lithium-Ionen-Akkuspeichersystems in Südaustralien im November 2017. Bereits einen Monat später sprachen die Medien bereits von großem Erfolg:

 „Mindestens zwei größere Energieausfälle konnten entschärft werden, die Batterien reagieren schneller als kohlebefeuerte Backup-Kraftwerke. Die Batterie von Tesla (Hornsdale Power Reserve) lieferte bereits nach nur 0,14 Sekunden nach einer der größten Braunkohle Kraftwerke Australiens, dem Loy Yang-Kraftwerk, das einen plötzlichen, unerklärlichen Produktionsrückgang erlitt.“

Ende 2017 und auch heute noch in Australien gibt es ein großes Problem – Wenn das Batteriespeichersystem von Tesla so effektiv ist -, warum hat die Financial Times Ende August 2018 festgestellt [Bezahlsperre]: „Die politische Krise in Australien hat seine Wurzel in der Energiefrage.“

Die derzeit eingesetzten Energiespeichersysteme sind nicht skalierbar, erschwinglich oder flexibel wie Erdgas, so sind viele Länder wie die Australier zu höheren Strompreisen verdammt, wie auch Deutschland und Dänemark beweisen. Stromausfälle und höhere Emissionen durch verstärkten Einsatz von backup-Kraftwerken; insbesondere Kohlekraftwerke sind unabwendbar. Wenn China behauptet, sie seien führend in grüner Energie, so täuscht es die politischen Führer der Welt und die Umweltschützer, die auf erneuerbare Energien und Energiespeicher abzielen, die jedoch nicht als Ersatz zuverlässiger Energieversorgung eingesetzt werden können.

China baut weitere Kohlekraftwerke in rasantem Tempo, während Australien, das auch das Pariser Klimaabkommen unterzeichnet hat, Kohle nach Asien exportiert.

Nach Auswertung vom Juni 2018 , wird Australien im Zeitraum 2017-2018 voraussichtlich 60,2 Milliarden US-Dollar mit Kohleexporten verdienen – das ist das höchste jemals erreichte Niveau -, darunter 182 Millionen Tonnen oder 37,5 Milliarden US-Dollar an metallurgischer Kohle und 200,5 Mio. Tonnen oder 22,7 Milliarden US-Dollar an thermischer Kohle.

Wenn die Energiespeicherung funktionieren würde, würden auch erneuerbare Energien funktionieren, da sich jede Technologie gegenseitig ergänzt. Erneuerbare Energien kommen ungeplant und nur zeitweilig und benötigen Energiespeicherkapazität und / oder die Sicherung durch zuverlässige Kraftwerke. Energiespeicherung ist derzeit oder in naher Zukunft nicht 24 Stunden an 365 Tagen bedarfsgerecht verfügbar [und bezahlbar].

Weitere Beispiele für einen fehlgeschlagenen Einsatz erneuerbarer Energien gibt es viele. Über Deutschland und Frau Dr. Merkels gescheiterte Klimaziele berichtete Bloomberg Mitte August

„Deutschland, die Nation, die mehr als jedes andere Land erneuerbare Energien zum Einsatz gebracht hat, wird ihre Ziele zur Reduzierung der „schädlichen“ Kohlendioxidemissionen wahrscheinlich sogar dann verfehlen, wenn bis 2025 weitere 500 Milliarden Euro für den Umbau des Energiesystems aufgewendet werden. Deutschland ist eine der Top-Volkswirtschaften der Welt, seine Ingenieurskunst ist seit über einem Jahrhundert legendär und sie haben einen politischen Konsens für grüne Energie, aber sie können erneuerbare Energien nicht mit den Emissionszielen in Übereinstimmung bringen. Der Grund dafür liegt in der launischen Natur der erneuerbaren Energien und es gibt keine ausreichenden Energiespeicher. Selbst in dem technologisch fortgeschrittenen Deutschland, das nach dem Tsunami und Ausfall von Fukushima Daiichi in Japan versucht, seine Atomkraftwerke stillzulegen, hat seine nicht gelösten Probleme:

„Durch die Schließung von Kernkraftwerken bleiben in Deutschland keine Erzeugungsanlagen, die an den dunklen Tagen im Winter arbeiten können, wenn Windparks und Solaranlagen nicht viel zum Netz beitragen – und die Nachfrage auf dem Höhepunkt ist.“

Zusätzliche Probleme treten für Benutzer und Netzbetreiber ohne ausreichende Energiespeicher in Deutschland auf: „Das Netz ist so stark mit Strom überschwemmt, dass die Preise auf dem Großhandelsmarkt oft unter null fallen.“

Was die politischen Entscheider in Deutschland, der EU, in China und der industrialisierten Welt zusätzlich beeinflusst ist, dass die deutsche Wirtschaft mehr dienstleistungsorientiert ist und weniger Energie verbraucht und weniger CO2 emittiert, im Gegensatz zu China und zunehmend den USA, deren Industrie und Fabriken einen größeren Anteil am BIP haben. Die Nutzung erneuerbarer Energien ist ohne skalierbare, erschwingliche und zuverlässige Energiespeichersysteme nicht zu erreichen.

Auch die Vereinigten Staaten (USA) sind ein Beispiel, wo die Preise ohne ausreichende Energiespeicherung gestiegen sind, Kalifornien hat darüber hinaus noch höhere Großhandelspreise und Einzelhandelspreise, da in diesem Bundesstaat überhaupt keine Energiespeicherung verfügbar ist. Minnesota lag in der Vergangenheit um 18,2% unter dem nationalen US-Durchschnitt der Energiepreise. Minnesota investierte in 2009 10 Milliarden US-Dollar für Windparks, modernisierte die Übertragungsleitungen und erließ eine Vorschrift des zu erreichenden Anteil der Stromversorgung aus erneuerbarer Energien:

„Die Energieversorger müssen 25-30% des Stroms aus erneuerbaren Quellen verkaufen, hauptsächlich aus Wind.“

All dies sollte ohne ein Speichersystem erreicht werden. Das Ergebnis: Die Energiepreise von Minnesota liegen seit Februar 2017 über dem nationalen Durchschnitt und sie haben die Treibhausgasemissionen im Vergleich zum US-Durchschnitt und die Umweltverschmutzung nicht verringert.

Hätte Minnesota keine nicht so sehr auf  „erneuerbare Energie“ gesetzt und dann noch ohne Energiespeicher und wäre stattdessen bei seinem traditionellen Energiemix geblieben, wären den Strombeziehern von 1990 bis 2017 4,4 Milliarden Dollar erspart geblieben. Energiespeicherung ist unabdingbar neben zufälliger Lieferung von  Energie aus Wind und Sonne.

Befürworter von erneuerbaren Energien, Batteriespeicherung, intelligenten Netzen [d.h., Verbraucher abschalten zu können] werden jedoch weiter daran glauben, dass die Technologie verfügbar, skalierbar, erschwinglich ist und die flexible Zusatzleistung wie Erdgas bietet. „Die heute verfügbaren handelsüblichen Großbatterien speichern jedoch nur zwischen zwei  Minuten und maximal zehn Stunden lang Energie, d.h. Strom.“ Energiespeicher , die tatsächlich Stromausfälle von Tagen, besser zwei Wochen überbrücken könnten, sind weder in naher oder langfristiger Zukunft absehbar noch finanzierbar – obwohl Befürworter, Politiker und Teile der profitierenden Privatwirtschaft weiterhin auf erneuerbaren Energien und einer kohlenstofffreien Lebensweise bestehen.

Jede Art von lokalem, landesweitem, landesweitem, nationalem oder internationalem Ansatz für Energiespeichersysteme erfordert eine Strategie und Technologie, die Flexibilität, allgemein akzeptierte Planungsmethoden, bedarfsorientierte Verbraucherverwendung, national und international angeschlossene Übertragungsleitungen, Umfasst die Handhabung der variablen, intermittierenden Natur der erneuerbaren Erzeugung. Teil 2 der Reports des Energieministeriums vom Nov. 2016, noch Obama Regierung. Berücksichtigt werden muss auch die IT-Sicherheit einer Netzmodernisierung, damit die Energiespeicherung einen Beitrag dafür liefert, dass erneuerbare Energien und die CO2-freie Gesellschaft Realität werden.

US-Gov, Department of Energy

Unter Punkt 3.2 im Report des Energieministeriums, findet man [nur wenige Phrasen] zur Energiespeicherung

Empfehlung 3.2: Festlegung eines Rahmens und einer Strategie für Energiespeicherung und Flexibilität. Es gibt bislang nur wenig Informationen zu den Vorteilen und Kosten eines Energiespeichers und zur Bereitstellung flexibler Ressourcen unterhalb des „bulk system level“, [Sinngemäß: … unterhalb des Speichervermögens / der Speicherkapazität, müssen back-up Energiequellen zuverlässig einspringen]. Der Report ergab, dass das Energieministerium Analysen der Speicherkapazität auf regionaler und Bundesland Ebene durchführen sollte. Die im März 2016 durchgeführte Studie „Bedarf und Reaktion integrierter Energiespeicher“ wurde in Zusammenarbeit zwischen dem Ministerium und den Nationalen Forschungslabors erstellt. Für das Geschäftsjahr 2017 wird vorgeschlagen, 2,6 Millionen US-Dollar im Rahmen der Netz Erneuerungs-Initiative (GMI )für die Zusammenarbeit mit Regulierungsbehörden für die Entwicklung von Analysen einzusetzen

Einheitliche Modellstandards für die Energiespeicherung werden regionale Vielfalt berücksichtigen. Die Modelle enthalten Risikoattribute der Energiespeicherung sowie der primären, sekundären und tertiären Energieflüsse.

Die Projekte werden auch mit Normungsgremien zusammenarbeiten, um die Definition von Energiespeichercodes  und Standards in Bezug auf Sicherheit und Leistung zu erleichtern.

Bericht erschienen auf CFact vom 06.11.2018

Übersetzung und Interpretation durch Andreas Demmig

http://www.cfact.org/2018/11/06/energy-storage-isnt-ready-for-wide-deployment/

23 Nov 19:15

Die pazifischen Inseln „an der Klimafront“, nehmen an Landfläche eher zu, als ab

by Andreas Demmig

Der Generalsekretär der Vereinten Nationen, Antonio Guterres, sagte den pazifischen Inselführern, dass der Klimawandel bei einem Treffen mit den Führern des Pacific Island Forum (PIF) seine „absolute Priorität“ sei.

Im Gegenzug stellte eine Studie fest, dass die Inseln in ihrer Substanz stabil sind, einige sogar gewachsen. Dieses wurde im September in der Zeitschrift WIREs Climate Change veröffentlicht und trägt zu den wachsenden Beweisen bei, dass kleine Inselstaaten im Pazifik und im Indischen Ozean sich als widerstandsfähig gegen aufsteigende Meere erweisen, im Gegensatz zu Voraussagen, dass sie möglicherweise unbewohnbar werden.

„Insgesamt waren 88,6% der Inseln entweder stabil oder größer geworden“, schrieb die Autorin Virginie KE Duvat von der Universität La Rochelle in der Studie. [Das Original „Portal ist aufgrund eines urheberrechtlichen Anspruchs vorläufig nicht verfügbar“. Dafür habe ich das hier gefunden. Der Übersetzer]

Wesentlich ist, dass Inseln in Meeresregionen, die von einem Anstieg des Meeresspiegels betroffen eher sind, weder eine Kontraktion noch einen ausgeprägten Rückzug der Küstenlinie zeigten. Das deutet darauf hin, dass sie möglicherweise noch nicht von den vermutlich negativen, dh. erosiven Auswirkungen des Meeresspiegelanstiegs betroffen sind.“

Diese Ergebnisse der Studie könnten sehr ungelegen kommen, angesichts von Vorhersagen, dass Pazifikinsulaner an Orten wie Kiribati, zu „Klimaflüchtlingen“ werden könnten. Und zwar wegen Anstieg des Meeresspiegels – für den klimagläubige Wissenschaftler die Treibhausgasemissionen der Menschen verantwortlich machen.

Als sich die Vereinten Nationen 2015 trafen, um das Pariser Klimaabkommen zu unterdrücken, forderte Kiribati gemeinsam mit anderen Inselstaaten ein internationales Abkommen auf, um die globale Erwärmung unter 1,5 Grad Celsius zu halten.

„Es ist eine Frage des Überlebens“, sagte der damalige Präsident von Kiribati Anote Tong, nach einem Treffen mit US-Präsidenten Barack Obama. Fast 200 Länder unterzeichneten schließlich das Pariser Klimaabkommen.

In CBS-News-zu Kiribati in 2017 wurde von Kiribatis Notstand berichtet und von Wissenschaftlern die vorhersagen, dass der Inselstaat „in Jahrzehnten unbewohnbar sein könnte“, und dass „Hochwasser ihre Häuser überschwemmt, sogar bereits ihr Wasser verschmutzt und ihre Ernten abtöten.“

Duvats Studie ergab jedoch, dass Kiribatis Inselkette im Norden der Tarawa-Insel sehr stabil ist, wobei die meisten Inseln an Landfläche zunahmen. Die South-Tarawa-Kette erfuhr sogar das größte Wachstum der untersuchten Atolle.

Für die Malediven prognostizierte ein Vertreter der Inselregierung, dass der Anstieg des Meeresspiegels diese ganzen 1196 kleinen Inseln im Indischen Ozean in den nächsten 30 Jahren vollständig bedecken würde“. Diese Warnung wurde 1988 unter erhöhter Dringlichkeit des Kampfes gegen die globale Erwärmung gemacht.

Duvat stellte stattdessen fest, dass mehr als 70 Prozent der Huvadhoo-Inseln der Malediven stabil sind, das 6 Prozent an Größe zugenommen und 23 Prozent an Größe verloren haben.

Inseln mit Landverlust sind und waren alle „sehr klein“, schrieb Duvat und fügte hinzu:
„Von den Bewohnern wurde bestätigt, dass keine Insel verschwunden ist. 
Die erneut analysierten globalen Daten zeigen, dass Atolle keine Landfläche verloren haben und dass 73,1% der Inseln in der Landfläche, einschließlich der meisten besiedelten Inseln, stabil waren, während 15,5% der Inseln zunahmen und 11,4% in der Fläche abnahmen“.

Demmig, Malediven_traumhafte Resorts

Wissenschaftler befürchten, dass die zukünftige Erwärmung Probleme für tief liegende Inseln verursachen könnte, von denen sich viele nur wenige Meter über dem Wasser befinden. Andere menschliche Eingriffe, Meeresströmungen und Stürme spielen jedoch wahrscheinlich eine noch größere Rolle als Klimaveränderungen.

Zum Beispiel stellte Duvat fest, dass „die Landgewinnung und der Bau von Dammwegen nicht nur in städtischen, sondern auch in ländlichen Atollen bedeutende Änderungen in der Inselfläche und -konfiguration verursacht haben.“ Auch die „Entfernung und Beseitigung der einheimischen Vegetation – verursachte deutliche Veränderungen in Inselkonfiguration und Destabilisierung der Küste auf einigen Inseln“.

Demmig, Malediven_Male_Die KF-Schiffe überragen alles

 

Studien haben zunehmend gezeigt, dass trotz des steigenden Meeresspiegels ein weit verbreitetes Verschwinden von tief liegenden Atollen und Koralleninseln nicht festzustellen ist.

In dem jüngsten Bericht der Vereinten Nationen vom Oktober wurde darauf hingewiesen, dass „Modelle und andere Beweise darauf hindeuten, dass ungeschützte pazifische Atolle mit dem Meeresspiegel Schritt halten, bei nur geringer Verkleinerung der Landfläche oder gar einen Zuwachs an Land verzeichnet haben.“

Der neuseeländischen Forschers Paul Kench stellte in seiner Studie vom Februar fest, dass acht der neun Atolle von Tuvalu und drei Viertel seiner Riffinseln in den letzten vier Jahrzehnten gewachsen sind.

„Die Ergebnisse der Studie mögen kontraproduktiv erscheinen, da der Meeresspiegel in der Region im letzten halben Jahrhundert angestiegen ist, aber die vorherrschende Art des Wandels auf Tuvalu war Expansion und nicht Erosion“.

Der UN-Bericht warnt jedoch auch vor anhaltender Erwärmung: „Kleine Inseln sind an ihren Küsten voraussichtlich gefährdet und sehr empfindlich für den Klimawandel und anderen Stressfaktoren.“

Duvat fand nur auf Inseln, die kleiner als 25 Hektar waren, Instabilität, aber selbst dann, nahm nur eine kleine Anzahl der Inseln tatsächlich an Landfläche ab.

Gefunden auf The Daily Caller vom 30.10.2018

Übersetzt durch Andreas Demmig

https://dailycaller.com/2018/10/30/pacific-islands-growing-sea-level/

Demmig, unbesorgt vom Meerespiegelanstieg – kann man wunderbar ausspannen

Ergänzung:

Auch auf Eike lasen Sie bereits öfter von Studien zu Meeresspiegeln und den Pazifikinseln, hier und hier

[Dort finden Sie auch meine Lieblings-Links zu: Malediven, 11 neue Flughäfen fertiggestellt, weitere fünf geplant.]

Auch Prof. Mörner war schon Gastredner auf der Internationale Klima- und Energiekonferenz von Eike. Hier berichtet er über die Fidschi Inseln.

Da das Meereswasser sich gleichmäßig in der Höhe verteilt (nach „lokaler Gravitation“!), hier die Pegelstände an deutscher Nordseeküste

23 Nov 19:15

Diesel-Fahrverbot gefährdet Essener Tafel. Wer wirft das erste Ei?

by Admin

Es geht um den Kaufkraftverlust und ständige Steuer- und Abgabenerhöhungen. Eine Strafsteuer auf den Kraftstoff der auch in unserem Nachbarland besonders beliebten Dieselautos war dann eine Erhöhung zu viel. Da fruchtete auch der Hinweis auf angebliche Bemühungen um die Luftreinheit nicht mehr. Die 51 Jahre alte Jacline Mouraud protestierte mit einem Video auf Facebook gegen die hohen Spritpreise und wurde zum Protest-Kult. Das Erkennungszeichen der Bewegung sind die gelben Warnwesten „Gilets jaunes“.

Den Deutschen ist so ein anarchischer Ausbruch wohl nicht zuzutrauen, aber das Murren hierzulande wird allmählich auch lauter. Auch bei uns werden Einschränkungen, Gängelungen und immer neue Belastungen stets so begründet, dass derjenige, der dagegen protestiert, sich moralisch ins Unrecht setzt. Wer kann schon was gegen saubere Luft in den Städten haben? Die Deutsche Umwelthilfe, ein Abmahnverein, der mit dieser Begründung gerade Deutschland lahm legt, strotzt nur so vor moralischer Selbstgerechtigkeit. Diese Leute haben keinerlei Bezug mehr dazu, was sie tatsächlich anrichten – und welches moralische Urteil später einmal darüber gefällt werden dürfte.

Und wieder ist es eine kleine, scheinbar nebensächliche Episode, die den ganzen Irrsinn wie in einer Nussschale konzentriert – und die Verhältnisse zum Tanzen bringen könnte. „Aus für Essener Tafel wegen Diesel-Fahrverbot?“ fragte die Bild-Zeitung vor zwei Tagen. Die Essener Tafel machte vor einiger Zeit Schlagzeilen, weil Ihr couragierter Chef, Jörg Sartor, nicht länger hinnehmen wollte, dass bei der Essensverteilung zunehmend das Recht des Stärkeren Einzug hielt – und aus diesem Grund bis auf weiteres keine weiteren Zuwanderer mehr akzeptieren wollte. Bis hinauf zur Bundeskanzlerin ging daraufhin Entrüstung durch die Reihen der Abgehobenen in diesem Lande, Jörg Sartor fand sich ruckzuck auf der Rassisten-Strafbank, obwohl er aus schlichter Notwendigkeit eine praktisch vernünftige Entscheidung durchsetzte.

Unter der Mustertapete der hohen Moral

Inzwischen „ist die Oma wieder da“, freut sich der Tafel-Chef. Statt dessen droht jetzt erneutes Ungemach. Und wieder sind es die Moralapostel in ihren Wolken-Kuckucksheimen, die die Existenz dieser von Freiwilligen getragenen sozialen Einrichtung gefährden. Sartor droht mit einer Schließung der kompletten Essener Tafel. Grund ist das Dieselfahrverbot in Essen, das ab 2019 gelten soll. Laut Sartor verfügt die Essener Tafel für den Transport von gespendeten Lebensmitteln über sechs Kühlfahrzeuge der Marke Mercedes Sprinter und zwei weitere Transporter. Die Fahrzeuge seien zwischen zwei und fünf Jahre alt und erfüllten lediglich die Euro-Normen 4 oder 5. Die Essener Tafel mit Sitz im Huttroper Wasserturm an der Steeler Straße liegt mitten drin in einer „Verbotszone“. Für neue Transporter fehlt das Geld, also müsste man dieses Projekt, das immerhin 22.000 Bedürftige in der Stadt mit Lebensmitteln versorgt, aufgeben. Ob es eine Ausnahmegenehmigung geben wird, steht in den Sternen.

Und damit wären wir bei der Moral der Geschichte. Zweifelhaft ermittelte Grenzwerte für Stickoxide, deren Einhaltung mit noch zweifelhafteren Messstellen überprüft wird, gipfeln in absolut zweifelhaften Hochrechnungen „vorzeitiger Todesfälle“. Diese wiederum werden von einem zweifelhaft finanzierten Abmahnverein genutzt, um seiner Kampagne gegen das Auto Schwung zu verleihen. Das führt dann ganz unzweifelhaft zur Enteigung hunderttausender Autofahrer, die man im übrigen jahrelang verleitet hat, sich ein Dieselauto zu kaufen, weil das mit seinem niedrigeren CO2-Ausstoß besser fürs Klima sei.

Aber es sind eben nicht nur die Autofahrer. Willkürlich herbeigeführte Wohlstandsverluste treffen immer die Ärmsten der Armen am schlimmsten. Und das wären in diesem exemplarischen Fall die 22.000 Menschen in Essen, die sich noch nicht einmal mehr den Einkauf von Lebensmitteln leisten können. Menschen im übrigen, die bereits unter exorbitanten Strom- und Heizungspreisen leiden, die ebenfalls im Dienste einer höheren Moral, nämlich einer dubiosen „Klimarettung“ aufoktroyiert wurden – von den gleichen dubiosen Weltrettern, die jetzt mit der Luftreinhaltungskeule das Auto abservieren wollen. Unter der Mustertapete der hohen Moral modert die gute alte Feindschaft gegenüber der Industriegesellschaft.

Zutiefst antihuman und misanthropisch

Das Beispiel Tafel Essen zeigt noch zwei weitere Charakterisika dieser zutiefst antihumanen und misanthropischen politischen Agenda: Private Initiative und bürgerschaftliches Engagement werden unterminiert, das Individuum gilt nichts. Es soll weder selbstbestimmt fahren können, wohin es will, noch helfen können, wem es will. Die entsprechenden Gesetze, die die Voraussetzungen dafür schaffen, werden stets unter dem Deckmantel eines noblen Anliegens verabschiedet, so sie denn nicht ganz unter dem Radar der öffentlichen Wahrnehmung gehalten werden. Gerne spielt man dabei auch über die europäische Bande oder „unverbindliche“ UN-Resolutionen. Auf dem Weg von dort oben nach unten verkehren sich die guten Vorsätze dann nach und nach ins Gegenteil.

Gerd Held hat dieser Tage auf Achgut.com in seinem Beitrag „Die Industrie-Verabschiedungskultur“ geschrieben: „Es wird so getan, als fände auf deutschen Straßen eine Art Weltkrieg oder eine organisierte Massenvernichtung statt. Es soll ein Klima der Angst und der Empörung geschaffen werden, in dem keine vernünftige Abwägung von Belastungen und Erträgen mehr stattfinden kann. Die Argumentation entzieht sich jeder Verhältnismäßigkeits-Vernunft. Auf diesem Weg kann jeder industriellen Aktivität die Legitimität entzogen werden“.

Genau das stellen die Vorgänge um die Essener Tafel nun ganz lebenspraktisch unter Beweis. Bei dieser Gelegenheit sollte man auch noch einmal das sogenannte „Vorsorge-Prinzip“ ansprechen. Wenn man es richtig handhabt, dann darf man nämlich nicht nur die Folgen der Anwendung einer Technik betrachten, sondern muss sie gegen die Folgen ihrer Nicht-Anwendung abwägen. Im Falle des Diesels sollte die Entscheidung gar nicht so schwer fallen. Unzählige Menschen wurden und werden mit Fahrzeugen oder Aggregaten gerettet, die von Dieselmotoren sparsam und zuverlässig angetrieben werden. Jedes Krankenhaus hat ein Diesel-Notstromaggregat im Keller. Eine noch viel größere Rolle spielt die indirekte Funktion des Dieselmotors als Wohlstandsmaschine und Überlebenshilfe. Jeder, der einmal in Afrika oder Australien reiste, kennt das nächtliche Tuckern des Dieselaggregats, das den Kühlschrank kalt und die Glühbirne hell werden lässt.

Dieser nachweislich millionenfachen lebensrettenden Funktion stehen hypothetische und wissenschaftlich nach wie vor umstrittene Studien gegenüber, die entgegen der Kolportagen nicht in der Lage sind, einen kausalen Zusammenhang zwischen Stickoxiden und Erkrankungen nachzuweisen. Eine Abwägung von Nutzen und Schaden findet nicht mehr statt. Es geht nicht um Abgase und schon gar nicht um Menschen. Es geht um eine Ideologie der tabula rása.

Der Beitrag erschien zuerst bei ACHGUT

23 Nov 19:14

Das Picasso-Problem

by Chris Frey

Was ist üblicherweise mit Klima-Sensitivität gemeint? Um das zu erklären, muss ich einen kleinen Umweg machen. Erstens, einfallende Strahlung [Downwelling].

Downwelling“ in der Klimawissenschaft bedeutet die auf die Oberfläche des Planeten treffende Strahlung. Einfallende Strahlung ist die Gesamtstrahlung in Richtung Erdoberfläche. Sie setzt sich zusammen aus Sonnenlicht (kurzwellig) plus thermischer Strahlung aus der Atmosphäre (langwellig). In der Klimawissenschaft nennt man diesen Parameter, also die gesamte einfallende Strahlung „Antrieb“ [Forcing F].

Das zentrale Paradigma der modernen Klimawissenschaft lautet, dass wenn sich die Stärke der einfallenden Strahlung (Forcing) ändert, sich auch die Temperatur an der Oberfläche notgedrungen ändert. Es wird behauptet, dass sich alles andere heraus mittelt, und falls das Forcing sich verstärkt, muss sich auch die Oberflächentemperatur ändern, um das globale Energie-Gleichgewicht zu erhalten. Sie muss sich ändern! Sie muss!

Kurz gesagt lautet das zentrale Paradigma der modernen Klimawissenschaft:

Langfristig ist die globale Temperaturänderung proportional zur Änderung der globalen Forcings.

Die vermeintlich konstanten Proportion zwischen beiden Größen, also Temperatur-Änderung dividiert durch Forcing-Änderung, nennt man „Klima-Sensitivität“.

Klima-Sensitivität wird oftmals ausgedrückt als die mutmaßliche Temperaturänderung bei einer Änderung der einfallenden Strahlung von 3,7 Watt pro Quadratmeter (W/m²). Die Berechnung dieser so genannten „Klima-Sensitivität“ ist eine zentrale Frage, die sich rund um das Paradigma erhebt, dass Temperaturänderung proportional zu Temperaturänderung ist.

Und das bringt mich zu der höchst langweiligen Graphik unten. Sie zeigt die Änderungen der Schätzung des Wertes der Klima-Sensitivität über die Zeit:

Abbildung 1: Änderungen über die Zeit der Schätzung des Klima-Sensitivitäts-Parameters „lambda“. „∆T2x(°C)” ist die erwartete Temperaturänderung in Grad Celsius bei einer Verdoppelung des atmosphärischen CO2-Gehaltes, von welcher man annimmt, dass sie das Forcing um 3,7 W/m² verstärken wird. Mit den Abkürzungen FAR, SAR, TAR, AR4, AR5 sind die fünf Zustandsberichte des IPCC gemeint, welche eine Zustandsbeschreibung des Status‘ der Klimawissenschaft zum jeweiligen Zeitpunkt der Berichte sind.

[Bildinschrift oben in der Graphik: UTTER STAGNATION – Dr. Shaviv schreibt: „Lassen Sie mich das in eine Perspektive bringen mit der langweiligsten Graphik, die ich je in meinem Leben geplottet habe. Die Graphik zeigt die wahrscheinliche Bandbreite der Klima-Sensitivität als Funktion der Zeit. Wie man sieht, hat sich die wahrscheinliche Bandbreite der Klima-Sensitivität seit dem Charney-Report aus dem Jahr 1979 nicht verändert, wenn man vom AR 4 mit einer etwas geringeren Bandbreite absieht. Mit anderen Worten: Nach vermutlich Milliarden Dollar, welche über mehr als drei Jahrzehnte in die Klimaforschung gepumpt worden waren, hat sich unsere Fähigkeit, die wichtigste Frage bzgl. Klima zu beantworten, nicht einmal ansatzweise verbessert!]

Es ist der Erwähnung wert, dass seit dem Jahr 1979 gesamte neue Wissenschaftsbereiche wie die DNA-Analyse erstmals aufkamen und inzwischen erstaunliche Niveaus der Entwicklung erreicht haben … und das über die gleiche Zeit, in der die von Dr. Shaviv als die „bedeutendste Frage bzgl. Klima“ bezeichnet keinerlei Entwicklung aufweist. Überhaupt keine.

Seit 1979 ist die Rechenleistung der uns zur Verfügung stehenden Computer explodiert, sowohl individuell als auch bei großen Organisationen. Mein zuverlässiger PowerMac hat mehr Rechenleistung als den meisten Universitäten im Jahre 1979 zur Verfügung stand. Die Kosten sind ebenfalls gesunken, von 100.000 Dollar pro MIPS (Millionen Befehle pro Sekunde) auf weniger als 1 Dollar pro MIPS heute. Und die Geschwindigkeit der Rechenleistung hat alle Grenzen gesprengt, laufen doch über die Super-Computer Klimamodelle mit über einer Billion Rechen-Operationen in jeder Sekunde. Auch die Anzahl der sich mit der Erforschung des Wertes der Klima-Sensitivität befassenden Personen hat mit der Zeit zugenommen. Und Milliarden über Milliarden Dollar wurden aufgebracht, um die Frage zu beantworten.

Fazit: Seit dem Charney-Report im Jahre 1979 bzgl. Klima-Sensitivität gab es eine ebenso horrende wie unsinnige Zunahme bei:

● Computerleistung bzgl. der Frage

● Stunden intensiver Forschung bzgl. der Frage

● Diskussionen, Debatten und Interesse bzgl. der Frage

● Aufgebrachtes Geld bzgl. der Frage

Und trotz dieser ungeheuren Steigerung von Zeit, Arbeit, Diskussionen und Computerleistung hat sich die Untersuchung der Frage nach dem Wert der Klima-Sensitivität genau Null Millimeter bewegt. Keinerlei Fortschritt.

Wie können wir diese wissenschaftliche Eigenartigkeit einordnen? Was steckt dahinter, dass all die aufgebrachte wertvolle Zeit, Geld und Mühen genau nichts erreicht hat? Ich meine Null. Gar nichts. Keinerlei Bewegung. Die langweiligste Graphik.

Ich schlage mal als Grund vor, dass die Klimawissenschaft das Opfer von etwas ist, das ich das „Picasso-Problem“ nenne. Pablo Picasso sagte nämlich einmal etwas, das mir noch sehr lange im Kopf herumging:

Welchen Nutzen haben Computer? Sie können doch nur Antworten geben“.

Ich selbst habe mein erstes Computerprogramm im Jahre 1963 geschrieben, also vor mehr als einem halben Jahrhundert. Damals war ich sechzehn Jahre alt. Ich ließ es auf einem Computer von der Größe eines kleinen Raumes laufen. Seitdem programmiere ich Computer. Ich habe Programme für alles geschrieben, von Stoffdesign für große Zelte [catenary tents ?] über die Berechnung der Gezeiten des nächsten Jahres aus den Gezeiten-Tabellen dieses Jahres bis hin zur Erstellung der Graphiken in diesem Beitrag. Und mit den Jahren habe ich auch ziemlich Kohle gemacht mit meiner Erfahrung bzgl. Computer.

Wenn ich also lese, dass Picasso Computer mit jener Feststellung abschreibt, lautete meine spontane Antwort „Was?! Computer sind großartig! Worauf will dieser verrückte Künstler hinaus? Ich habe viel Geld verdient mit meinen Computern. Wie können sie unnütz sein?“

Aber nach gründlicherem Nachdenken erkannte ich, dass Picasso recht hatte. Er meinte Folgendes:

Selbst der allerbeste Computer kann keine richtige Antwort geben, wenn man ihm zuvor nicht die richtige Frage stellt“.

Das war für mich eine grundlegende Erkenntnis, eine, die mich über viele meiner wissenschaftlichen Unternehmungen geleitet hat – man konzentriere sich nicht zu sehr auf die Antworten. Man muss auch die Fragen in den Mittelpunkt rücken.

Betrachtet man nun also die Klimawissenschaft – welches ist die falsche Frage, welche die richtige? Auch hier möchte ich wieder ein wenig abschweifen.

Mein Interesse an der Klimawissenschaft wurde um die Jahrtausendwende geweckt, und zwar wegen der inflationären Zunahme von Untergangsprophezeiungen eines drohenden ThermageddonTM. Also begann ich, mich mit den Grundlagen zu befassen und zu lernen, wie der schlecht bezeichnete „Treibhauseffekt“ die Erde weit wärmer hält als es auf dem Mond ist, der etwa die gleiche Entfernung von der Sonne hat.

Allerdings habe ich im Zuge dieses Interesses gelesen, dass das Best Estimate der Erwärmung über das gesamte 20. Jahrhundert in der Größenordnung von 0,6°C aufgetreten war. Da kam mir spontan der Gedanke „Was – weniger als ein Grad?! All dieses Brimborium, und die Temperatur hat sich um weniger als 1 Grad geändert?“

Ich war überrascht wegen meiner Erfahrung mit der Reparatur von Maschinen mit einem Regler und aufgrund meiner Erfahrung mit Sonnenenergie. Ich betrachtete das Klima als eine gigantische, von der Sonne angetriebene Wärmemaschine, wobei die Sonnenenergie konvertiert wird zu der unablässigen Bewegung der Atmosphäre und der Ozeane gegen die bremsende Wirkung der Reibung und vielem mehr.

Wenn man die Effizienz oder andere Charakteristika einer Wärmemaschine analysiert, oder wenn man Dinge wie die Stefan-Boltzmann-Gleichung verwendet, um Temperatur in das Äquivalent thermischer Strahlung zu konvertieren, muss man die Kelvin-Temperaturskala (K) heranziehen. Diese Skala beginnt am absoluten Nullpunkt. Temperatur ist eine Funktion der Bewegung von Molekülen oder Atomen, und am absoluten Nullpunkt hören diese Bewegungen vollständig auf.

Man kann für derartige Berechnungen nicht die Celsius- oder die Fahrenheit-Skala heranziehen, weil beide willkürlich gewählte Nullpunkte haben. Nur mit der Kelvin-Skala funktionieren diese Berechnungen. Kelvin hat die gleichen Abstände der Einheiten wie Celsius und lediglich einen anderen Nullpunkt, nämlich minus 273,15°C.

Nun beträgt die mittlere Temperatur an der Erdoberfläche größenordnungsmäßig 14°C – oder 287 Kelvin. Und mit dieser mittleren globalen Temperatur von 287 Kelvin macht die globale Temperatur-Variation von 0,6 K über das 20. Jahrhundert gerade mal ein Fünftel von einem Prozent aus.

Dies war die Seltsamkeit, die mich bei meinen Untersuchungen bzgl. Klima begleitete … über einen Zeitraum von 100 Jahren hat die Temperatur nur mit etwa einem Fünftel eines Prozentes variiert. Das war für mich umwerfend. Ich hatte viel Erfahrung mit geregelten Systemen wegen meiner Arbeit mit elektrischen Generatoren. Diese müssen genau geregelt werden, damit ihre Geschwindigkeit konstant bleibt trotz der sich ändernden Last des Systems. Und bei dieser meiner Arbeit habe ich herausgefunden, dass es ziemlich schwierig ist, innerhalb eines Prozents regelnd in ein mechanisches System einzugreifen.

Und jetzt: Trotz Dürren und Überschwemmungen, trotz großer Vulkanausbrüche, trotz sich konstant ändernder globaler Wolkenbedeckung, trotz aller Arten von Änderungen des Antriebs, trotz hemisphärischer Temperaturänderungen um ~13°C zweimal pro Jahr in jedem Jahr, trotz des Ausgleichs des Globus‘ bzgl. eines Treibhauseffektes, der den Planeten um rund ~50°C wärmer hält als den Mond … trotz all dieser Änderungen und Variationen variierte die mittlere Temperatur der Erde nicht stärker als ein Viertel Prozent im Laufe eines ganzen Jahrhunderts.

Das ist eine erstaunlich enge Regelung. Hier folgt ein Beispiel aus der realen Welt, warum mich diese Stabilität überrascht hat.

In meinem Auto gibt es einen Geschwindigkeits-Regler. Den kann man auf eine bestimmte Geschwindigkeit einstellen, die dann stur gehalten wird, egal ob das Auto beladen ist oder nicht. Bei starkem Gefälle ändert sich die Geschwindigkeit geringfügig um plus/minus 1 km/h. Das heißt, diese vom Computer gesteuerte Regelung hält die Bandbreite der Geschwindigkeit innerhalb 2% … aber die Temperatur der Erde ist sogar noch viel besser reguliert. Sie schwankt innerhalb von plus/minus einem Zehntel Prozent.

Zu jener Zeit war diese thermische Stabilität für mich ein untrügliches Anzeichen für die Existenz irgendeines unbekannten natürlichen thermostatischen Prozesses, der auf sehr effiziente Art und Weise die Temperatur innerhalb dieser geringen Bandbreite hält. Also sah ich es als meine Aufgabe im Bereich Klimawissenschaft, das Phänomen zu finden, welches diese enge Bündelung der planetarischen Temperatur über Jahrhunderte hinweg bewirkt.

Was ich in eine eigentümliche Lage brachte. Alle etablierten Klimawissenschaftler versuchten und versuchen immer noch herauszufinden, warum sich die Temperatur so stark ändert. Sie verbrachten Zeit damit, auf Graphiken wie die Folgende zu starren, welche die Variationen der Temperatur auf der Erde zeigt:

Abbildung 2: Globale mittlere Anomalie der Temperatur nach HadCRUT

Andererseits wollte ich als jemand mit Interesse für Wärmemaschinen und Regler versuchen herauszufinden, warum sich die Temperatur so wenig geändert hat. Dabei zog ich genau die gleichen Daten heran wie in Abbildung 2, habe sie aber anders dargestellt:

Abbildung 3: tatsächliche globale Mitteltemperatur (nach den gleichen Daten wie in Abbildung 2) sowie die angenäherte mittlere Mondtemperatur in Kelvin.

Und das bringt mich nach dem Beackern dieses entfernt liegenden Bereiches zurück zu der Frage nach der Klima-Sensitivität und der weitsichtigen Frage von Picasso: „Wozu sind Computer nütze? Sie können doch nur Antworten geben!“

Meine Aussage: Der Grund dafür, warum wir Jahrzehnte lang überhaupt keine Fortschritte gemacht haben, die Klima-Sensitivität zu berechnen oder zu messen ist, dass wir unsere unermessliche Computerleistung bemühen, um die Antwort auf die Frage zu finden, warum sich die globale Temperatur so stark ändert.

Für mich ist das die völlig falsche Frage. Stattdessen sollten wir viel eher die folgende Frage stellen:

Warum ändert sich die globale Temperatur nur so geringfügig?

Nach vielem Nachdenken und noch mehr Forschung erkenne ich, dass der Grund für die nur so geringe Änderung der globalen mittleren Temperatur NICHT die Proportionalität derselben zu irgendwelchen Antrieben ist, wie allgemein angenommen wird. Als Ergebnis ist die so genannte „Klima-Sensitivität“ keine Konstante, wie vermutet wird … und weil das so ist, ist der Versuch, den exakten Wert zu berechnen, vergebliche Mühe, weil es keinen festen Wert gibt. Darum auch können wir auch nicht den geringsten Fortschritt erzielen, sie zu messen … weil es eine Chimäre ist auf der Grundlage eines falschen Verständnisses dessen, was vor sich geht.

Stattdessen lautet meine Hypothese, dass die Temperatur durch eine Vielfalt von Phänomenen innerhalb dieser geringen Bandbreite gehalten wird. Sie kühlen die Erde, wenn es zu warm wird, und erwärmen sie, falls es zu kalt wird. Ich habe eine große Vielfalt von beobachteten Beweisen gefunden, dass dies tatsächlich der Fall ist. Siehe dazu auch die Links zu vielen Beiträgen, die ich zu diesem Thema bereits geschrieben habe*.

[*Siehe unten]

Aber das ist jetzt nur meine Antwort. Und ich bekenne sofort, dass diese durchaus falsch sein kann … aber zumindest ist es eine Antwort auf die richtige Frage. Das wirkliche Mysterium des Klimas ist dessen erstaunliche thermische Stabilität.

Und schließlich, wie kommt es, dass ein ganzer Wissenschaftsbereich sich abmüht zu versuchen, die falsche Frage zu beantworten? Ich sage, dass dies die Folge der Erschaffung des IPCC seitens der UN ist.

Im Jahre 1988 war der Bereich Klimawissenschaft ein ganz neuer Bereich. Trotzdem jedoch waren die UN bereits davon überzeugt, dass man genau wusste, um welches Problem es sich handelt. Typische bürokratische Arroganz. Als Folge davon heißt es in der Resolution 43/53 der Vollversammlung aus dem Jahre 1988 (die das IPCC hervorbrachte):

Die Vollversammlung ist besorgt hinsichtlich menschlicher Aktivitäten, welche das globale Klima verändern können, wodurch gegenwärtige und zukünftige Generationen von ernsten ökonomischen und sozialen Konsequenzen bedroht sind.

Man nimmt besorgt zur Kenntnis, dass Beweise zunehmend darauf hindeuten, dass die fortgesetzte Zunahme der Konzentration von „Treibhaus“-Gasen eine globale Erwärmung hervorrufen könnte mit einem eventuellen Anstieg des Meeresspiegels, deren Auswirkungen katastrophal für die Menschheit sein können, wenn nicht rechtzeitig in allen Bereichen Gegenmaßnahmen getroffen werden.

Und als Erwiderung sprang man sofort zu der Frage, ob sie wissenschaftlich korrekt war oder nicht; und man ging direkt dazu über, Maßnahmen gegen etwas zu ergreifen, von dem die Vollversammlung nicht die geringste Ahnung hatte. Die Resolution sagte, dass …

die Vollversammlung rechtzeitig notwendige Maßnahmen ergreifen sollte, um das Problem Klimawandel innerhalb eines globalen Rahmens anzugehen.

Rufe nach Maßnahmen machen Bürokraten immer glücklich. Also wurde das IPCC, eine ausgesprochen politische „zwischenstaatliche“ Organisation, de facto zur Führungskraft einer gesamten Wissenschaftsdisziplin … was sich als ein gewaltiger Fehler herausstellte.

Bis zu jener Zeit und auch danach bis jetzt gab es in allen anderen Bereichen der Wissenschaft erstaunliche Fortschritte hinsichtlich des Verständnisses ohne irgendein globales „zwischenstaatliches“ Gremium zur Anleitung ihrer Bemühungen. Es gab begeisternde Erfolge mit der gewöhnlichen wissenschaftlichen Methodik, wobei viele Wissenschaftler involviert sind, die ziemlich unabhängig auf der ganzen Welt irgendwelchen wissenschaftlichen Fragen nachgehen, manchmal in Kooperation, manchmal im Wettbewerb, ohne dass sie irgendjemanden brauchen oder haben wollen, der „die Wissenschaft zusammenfasst“, wie es das IPCC zu tun behauptet.

Und angesichts des Fehlens jedweden Fortschrittes, wie in der „langweiligsten Graphik jemals“ oben in diesem Beitrag sage ich, dass die Welt niemals wieder eine Haufen von UN-Bürokraten [pluted bloatocrats] einsetzen sollte für irgendetwas, das mit Wissenschaft zu tun hat. Hätten wir ein „zwischenstaatliches Gremium zur DNA-Analyse“ [Intergovernmental Panel on DNA-Analysis] eingerichtet, als der Bereich noch neu war, dann kann man sicher sein, dass dieser Bereich unweigerlich blind und taub unsinnigen Behauptungen hinterhergelaufen wäre wie „97% aller DNA-Wissenschaftler stimmen darin überein…“

Auf dem exzellenten Blog von Judith Curry fragte mich einmal jemand, was genau ich gegen das IPCC hätte. Ich erwiderte:

Hier sind einige Hauptgründe. Ich habe weitere.

1) Es wird ein Grad wissenschaftlicher Übereinstimmung vorausgesetzt, der einfach nicht vorhanden ist. Die meisten Menschen in dem Bereich einschließlich der Skeptiker glauben, dass sich die Welt erwärmt und dass Menschen sehr gut dazu beitragen könnten. Aber hier endet die Übereinstimmung schon. Wie groß der menschliche Beitrag ist, wie er aussieht und wie lange – zu diesen und ähnlichen Fragen gibt es keinerlei Übereinstimmung.

2) Das Gremium ist korrupt, wie unter Anderem das Jesus Paper zeigt.

3) Es ignoriert generell alles, was von der festgelegten Weisheit der Klimawissenschaft abweichen könnte.

4) Es wird von der Politik gesteuert, nicht von Wissenschaft. Bestimmte Paragraphen und Schlussfolgerungen sind verändert oder entfernt worden aufgrund politischer Einsprüche.

5) Bei dem Versuch, Entwicklungsländer mit ins Boot zu holen, wurde eine Anzahl sehr schlechter Wissenschaftler eingestellt.

6) Jedwede Organisation, die einen Leiter wie Rajendra Pachauri bekommt, ist sehr, sehr schlecht.

7) Man hat wirkliche Unsicherheiten ignoriert und diese ersetzt durch vollkommen subjektive Schätzungen der Unsicherheit.

8) Man hat Dinge wie die Hockeyschläger-Studie und die zahlreichen „Stick-alikes” veröffentlicht, obwohl es sich dabei um eklatant schlechte Wissenschaft handelt [laughably bad science]

9) Man erstellt „Projektionen“, die wenig oder gar nichts zu tun haben mit der realen Welt, wie etwa den Representative Concentration Pathway 8.5 (RCP 8.5).

10) Skeptiker aller Arten werden generell ausgeschlossen, entweder direkt oder weil die Skeptiker Besseres zu tun haben als sich einer solchen Organisation anzudienen.

11) Jeder, der „Projektionen“ erstellt, die über das Jahr 2010 hinausgehen, bläst Schall und Rauch in die Luft [der Autor drückt es drastischer aus. Anm. d. Übers.]

12) Man macht sich viel, viel zu stark abhängig von ungeprüften, nicht verifizierten und nicht validierten Klimamodellen.

13) Das IPCC denkt generell ohne nachzudenken, dass Erwärmung schlecht, schlecht, schlecht ist … was das Gegenteil der wirklichen Auswirkungen der Erwärmung seit der Kleinen Eiszeit ist.

14) Dem IPCC wurde die falsche Aufgabe bei seiner Gründung übertragen. Anstatt es zu beauftragen herauszufinden, was nun wirklich das Klima kontrolliert, übertrug man ihm die Aufgabe herauszufinden, wie viel CO2 wir emittieren dürfen, bevor es gefährlich wird. Diese Aufgabenstellung setzte eine Vielfalt von Dingen voraus, die niemals begründet worden waren.

15) … ach was, das reicht jetzt! Wen es interessiert – ich kann noch viele weitere Gründe benennen.

Das also ist das Klima-Picasso-Problem. Der Bereich Klimawissenschaft versucht, mittels Computern Antworten auf die falsche Frage zu finden, und als Folge davon führt der Bereich ins Nirgendwo.

Link: https://wattsupwiththat.com/2018/11/17/the-picasso-problem/

Übersetzt von Chris Frey EIKE

[Im Original folgen jetzt die o. g. Angesprochenen Links zu den Beiträgen von Willis Eschenbach zu diesem Thema. Aus Zeitgründen und weil sie nicht direkt zum Thema dieses Beitrags passen, werden diese hier aber nicht mit übersetzt. Anm. d. Übers.]

23 Nov 19:14

Mainzer Forscher: Infraschall der Windkraft – Störsender fürs Herz

by Andreas Demmig

Damit das Thema nicht in Vergessenheit gerät, hier ein Bericht von P. Gosselin, der des deutschen mächtig ist.

Links zu Berichten auf Eike finden Sie am Ende des Beitrags.

Einleitung durch den Übersetzer.

 

NoTricksZone , P Gosselin, 24.10.2018

Während sich deutsche Aktivisten hysterisch über die Feinstaubemissionen heutiger relativ sauberer Dieselautos gebärden, berichtet die Allgemeine Zeitung, dass Forscher [zum wiederholten Male] festgestellt haben, dass der niederfrequenter Infraschall von Windkraftanlagen das menschliche Herz tatsächlich negativ beeinflusst.

Aber kein deutsches Gericht oder eine Aufsichtsbehörde scheint darüber besorgt zu sein.

Vor kurzem überraschte eine Arbeitsgruppe, die sich auf Herz-, Thorax- und Gefäßchirurgie des Universitätsklinikums Mainz spezialisiert hat, mit ihren Forschungsergebnissen, die sich mit den Auswirkungen von Infrasound auf den Herzmuskel befassten.

Interview mit Prof. Vahl, Direktor der Herz-, Thorax- und Gefäßchirurgie der Unimedizin, Main.
Allgemeine Zeitung,

Infraschall hat eine Frequenz unter 20 Hz und ist daher für das menschliche Ohr nicht hörbar. Jedoch ist der Niederfrequenz – Schall bei hohem Schalldruck physisch wahrnehmbar und führt zu gesundheitlichen Folgen.

Windindustrieanlagen wandeln 40 Prozent der Luftströmung in Strom und die weiteren 60 Prozent* in Infraschall um, wodurch sie eine echte potenzielle Gefahr für die menschliche Gesundheit darstellen. [* 60%, sehen Sie dazu die u.s. Fußnote]

Das Problem bei Windkraftanlagen ist, dass die Infraschall kaum gedämpft werden kann und sich über große Entfernungen ausbreitet.

Es gibt aber Lärmschutz…

Infraschall hat eine große Reichweite und wird weder durch Fenster noch durch Mauerwerk gedämpft. Man bräuchte schon 30 Meter hohe und acht Meter dicke Mauern, um sich vor üblichen Infraschallfrequenzen zu schützen. Und durch immer höhere Windanlagen von bis zu 200 Metern mit steigender Leistung wird natürlich auch die Infraschall-Belastung höher.

Der Journalist Michael Bermeitinger befragte dazu Professor Christian-Friedrich Vahl ,  Abteilung für Herz-Thorax- und Gefäßchirurgie (HTG) des Universitätsklinikums Mainz.

Prof. Vahl erforscht Infraschall und seine Auswirkungen auf die Gesundheit, nachdem ein Freund, der in der Nähe eines Windparks lebte, über fortwährende Krankheitssymptome geklagt hatte. Es ist bekannt, dass auf der ganzen Welt Menschen, die in der Nähe von Windparks leben, häufig gesundheitliche Probleme haben – einige davon sind schwerwiegend.

Die Gruppe um Prof. Vahl führte ein Experiment durch, um herauszufinden, ob Infraschall die Herzmuskeln beeinflusst. Die Messergebnisse zeigten, dass die Kraft des isolierten Herzmuskels um bis zu 20 Prozent geringer war.

Die Stärke des Herzmuskels ist wichtig für den Fall, dass die Aortenklappe sich verklemmt und somit enger wird.

Dr. Vahl: „Dies verändert den Blutfluss und das Strömungsgeräusch.“

Die Forscher  diskutieren nun, ob diese Veränderungen ein zusätzliches Risiko für die Funktion des Herzens darstellt.

Unter Berufung auf die Ergebnisse sagte Prof. Vahl:
Die grundlegende Frage, ob Infraschall den Herzmuskel beeinflussen kann, wurde mit ja beantwortet

 

Welchen Schluss ziehen Sie aus den bisherigen Ergebnissen?

Der nächste Schritt für die Forscher wird es sein, Messungen am Menschen durchzuführen, sagte Dr. Vahl der Allgemeinen Zeitung .

Wir stehen ganz am Anfang, können uns aber vorstellen, dass durch dauerhafte Einwirkung von Infraschall gesundheitliche Probleme entstehen. Der lautlose Lärm des Infraschalls wirkt ja wie ein Störsender fürs Herz.

 

Zusammengestellt aus Bericht auf NoTricksZone vom 24.10.2018 und o.g. Allgemeine Zeitung

Andreas Demmig

http://notrickszone.com/2018/10/24/heart-jamming-wind-turbines-new-medical-research-confirms-infrasound-negatively-impacts-heart-health/

***

Fußnote:
Von Prof. Vahl angedachte „60%“ der Windenergie werden in Infraschall umgesetzt“, ist auf Eike bereits heftig diskutiert worden. Sehen  Sie nachfolgenden Link, und dann den Kommentar von Herrn Christian Gnabs u.a.

https://www.eike-klima-energie.eu/2018/06/01/infraschallauswirkungen-aufs-herz-neues-zur-vahl-studie-an-der-uni-mainz/

 

Infraschall – der Bumerang der Energiewende

https://www.eike-klima-energie.eu/2015/07/28/das-umweltbundesamt-stellt-fest-infraschall-ist-schaedlich/

https://www.eike-klima-energie.eu/2015/01/06/kommentar-zur-machbarkeitsstudie-zu-wirkungen-von-infraschall-des-bundesumweltamtes/

https://www.eike-klima-energie.eu/2015/04/05/wissenschaftlich-erwiesen-windradgenerierter-infraschall-ist-gesundheitsschaedlich/

https://www.eike-klima-energie.eu/2015/04/02/falschmessung-des-windradgenerierten-infraschalls-durch-die-landesanstalt-fuer-umwelt-messungen-und-naturschutz-baden-wuerttembergs-lubw/

 

PS: Warum wordpress manchmal einen Aufmacher der verlinkten Webseiten darstellt und mal nicht, ist mir unklar und ich weiß nicht, wie ich das beeinflussen kann. Demmig

23 Nov 19:14

Die New York Times hält die globale Erwärmung für schlimmer, als biblische Plagen

by Andreas Demmig

Hier der Link zum Beitrag auf der NYT: https://nyti.ms/2DPnyUw

Twitter: NYT Climate@nytclimate

Journalist der NYT John Schwartz.

Im Buch Exodus ließ Gott 10 Plagen über Ägypten frei, bis der Pharao der Forderung Mose zugestimmt hatte, die versklavten Israeliten gehen zu lassen. Zu den Seuchen gehörten Heuschrecken, aus Wasser wurde Blut und die erstgeborenen Söhne fanden den Tod.

Der Journalist Schwartz schwelgte in seinen Aufsatz in apokalyptischen Zukunftsvisionen, dass „einige tropische Küstengebiete der Erde, wie die Atlantikküste Süd- und Mittelamerikas, bis 2100 von bis zu sechs Krisen gleichzeitig getroffen werden könnten“.

Der Hauptautor Camilo Mora und 22 Forscher wollen herausgefunden haben, dass „nachvollziehbare Beweise für 467 Möglichkeiten gefunden wurden, durch die die menschliche Gesundheit, Wasser, Nahrungsmittel, Wirtschaft, Infrastruktur und Sicherheit in letzter Zeit durch Klimabedrohungen beeinflusst wurden“, darunter Hitzewellen, Dürren und Stürme.

Moras Studie behauptet, „die Weltbevölkerung wird gleichzeitig dem Äquivalent des größten Betrags einer dieser Gefahren ausgesetzt sein, wenn die Emissionen nicht aggressiv reduziert werden“, aber „drei, wenn sie nicht reduziert werden.“

Daher der Titel des Aufsatzes in der NYT: Es ist wie ein Terror Film: ‚Der Klimawandel verursacht mehrere Katastrophen gleichzeitig‘

Um die alarmierenden Behauptungen der Studie zu erzielen, werden ausschließlich die Szenarios [schlimmer als] „Business as usual“ des IPCC genutzt.

RCP8.5 ist das „Alptraum“ -Szenario des IPCC, bei dem die Erwärmung bis zum Ende des Jahrhunderts mehr als 5 °C beträgt. Mit diesem Szenario und nur mit so einem Szenario, können Wissenschaftler alarmierende zukünftige Projektionen  über Naturkatastrophen erstellen.

(für Vollbild, bitte auf das entsprechende Symbol klicken]

Es gibt jedoch auch Wissenschaftler, die immer skeptischer werden, das RCP8.5 als „Business as usual“ -Szenario zu verwenden.

Zwei Wissenschaftler der University of British Columbia veröffentlichten 2017 eine Studie, in der die Verwendung von RCP 8.5 durch ernsthafte Wissenschaftler in Frage gestellt wurde . Die Wissenschaftler fanden heraus, dass RCP 8.5 eine Zukunft modelliert, in der sich historische Trends umkehren und die Welt auf mehr Kohle umstellt.

Dies „deutet darauf hin, dass RCP8.5 und andere„ Business-as-usual “-Szenarien, die mit einem hohen CO2-Ausstoß aus der zukünftigen Kohleverbrennung in Einklang stehen, außergewöhnlich unwahrscheinlich sind“, schreiben sie in ihrer Studie.

Dies ist nicht das erste Mal, dass die The NYT auf die Bibel anspielt, wenn es um die globale Erwärmung geht. Ein NYT-Artikel vom Juni 2017 verglich den Zusammenbruch des antarktischen Eisschildes mit der Geschichte der Arche Noah.

„Im Gilgamesch-Epos überschwemmen Gewässer „die Sintflut“, die Welt der Sterblichen so sehr, dass auch die Götter Angst bekommen“, schrieb der Reporter Justin Gillis. „In der indischen Version warnt Gott Vishnu einen Mann, in einem Boot Zuflucht zu suchen und Samen mitnehmen soll. In der Bibel befiehlt Gott Noah, ein Paar von jedem Lebewesen auf seiner Arche mitzunehmen.“

Gefunden auf The Daily Caller vom 19.11.2018

Übersetzt durch Andreas Demmig

https://dailycaller.com/2018/11/19/new-york-times-global-warming-biblical-plagues/

 

Nachsatz:

Das eine Temperatur Beeinflussung durch CO2 für o.g. Wissenschaftler trotz allem außer Frage steht, sei mal so stehen-gelassen.

Wie gut das es auch einen Wissenschaftler gibt, der uns noch etwas Zeit einräumt:

Wenn es nach Verschwörungstheoretikern geht, können wir uns dank Apostel Johannes morgen entspannt zurücklehnen und auf die Apokalypse warten. Dabei kommt der Weltuntergang erst in 82 Jahren – sagt ein Wissenschaftler –  Auf News.de

23 Nov 19:12

Abzocker-Nostalgie

by Udo Vetter

„Ihr Eintrag im Branchenbuch – bitte prüfen Sie Ihre Angaben“: Faxe mit dieser oder einer ähnlichen Überschrift gingen vor Jahren fast täglich bei uns ein. Tatsächlich geht es in den Angeboten gar nicht um das gute, alte Branchenbuch (gibt es das überhaupt noch?), sondern um reine Abzocke, die im Form eines sündhaft teuren Abos für einen Eintrag auf irgendeiner Webseite daherkommt.

So einen Brief habe ich wie gesagt schon lange nicht mehr gesehen. Was vielleicht auch daran liegt, dass so was bei uns kurz angelesen sofort in die Ablage P wandert. Vorhin kam allerdings das die Offerte einer Firma „FS24“ aus dem Faxgerät, als ich gerade selbst ein Fax schickte. Das Fax war doch recht professionell aufgemacht und weckte so fast nostalgische Erinnerungen an die große Zeit der Adressbuch-Abzocker.

Ich habe zum Spaß gegoogelt, was es mit dieser Firma „FS 24“ auf sich hat. Und dabei festgestellt, dass die Kollegen von der Anwaltskanzlei Radziwill, Blidohn und Kleinspehn aus Berlin eigentlich schon alles Wissenswerte zu dem Thema recherchiert haben und einen lesenswerten Beitrag veröffentlicht haben..

Vielleicht ein nützlicher Reminder, dass selbst diese Art der Abzocke anscheinend immer noch als Geschäftsmodell zu taugen scheint.

23 Nov 19:12

Nichts tun ist auch eine Option

by Udo Vetter

Vorhin schaute ich die aktuellen Wiedervorlagen durch. Dabei war auch eine altbekannte Akte. Meinem Mandanten wird vorgeworfen, am 18.09.2016 eine Straftat im Straßenverkehr begangen zu haben.

Das ergibt sich jedenfalls aus dem Anhörungsbogen der Polizei. Ich habe mich seinerzeit für den Auftraggeber gemeldet und Akteneinsicht beantragt. Seitdem ist genau folgendes passiert: nichts.

Der Mandant fragte auch öfters mal bei mir nach. So lautete dann meine Empfehlung:

Ich möchte Ihnen raten, dass weder Sie noch ich sich derzeit bei der Polizei melden. Oft werden Akten dort verbummelt, Nachfragen sind dann natürlich kontraproduktiv.

Nun ja, wir sind nun im Jahr drei nach der angeblichen Tat. Bald kann man dann mal über Verjährung nachdenken. Ein Fahrverbot dürfte schon jetzt nicht mehr im Raum stehen, selbst wenn es doch noch zu einer Verhandlung kommt. Eine solche Sanktion soll nämlich an sich „auf dem Fuße“ folgen. Davon kann man ja nun echt nicht mehr sprechen, so dass sich der Mandant, der auf den Führerschein angewiesen ist, mittlerweile doch deutlich weniger Sorgen macht.

23 Nov 19:12

Das Drumherum

by Udo Vetter

Ein Strafverfahren endete mit einer Lösung, die sich oft anbietet. Die Angeklagte zahlt eine (im Verhältnis zum Vorwurf sehr) kleine Auflage, im Gegenzug wird der Prozess eingestellt. Keine Strafe, kein Eintrag im Führungszeugnis. § 153a StPO, der das Prozedere regelt, ist in der Tat eine der meistbemühten Vorschriften in der Strafprozessordnung.

In dem erwähnten Fall war eigentlich alles im grünen Bereich. Die Mandantin zahlte die ersten drei von vier Raten. Doch bei der vierten Rate hapert es nun schon geraume Zeit. Das Gericht hat mehrmals nachgefragt, ich habe die Hinweise stets weitergeleitet. Dann wurde der Ton der Richterin etwas rauer. Sie drohte mit dem, was das Gesetz für die Nichterfüllung halt vorsieht: die Fortsetzung des Verfahrens, wobei bereits gezahlte Raten verfallen.

Dummerweise kriege ich von der Mandantin nun über knapp drei Monate hinweg auch kein anderes Feedback, als dass sie die offene Schlussrate

(x) schon lange überwiesen hat;
(x) alles überwiesen hat, aber die Bank hat einen Fehler gemacht;
(x) ihr Mann wohl vergessen hat, die Überweisung zu machen, sie sich aber noch heute selbst drum kümmert;
(x) das Geld spätestens morgen überwiesen wird;
(x) die offene Summe nun gestern bei der Gerichtskasse bar eingezahlt wurde.

„Gestern“, das ist jetzt wieder eine Woche her. Bei der Gerichtskasse ist leider nichts eingegangen. Eine Quittung habe ich auch nicht erhalten. Ich fürchte, ich kann die Richterin nicht länger hinhalten. Diese setzt das Verfahren nun wieder auf null, das heißt es gibt demnächst eine neue Hauptverhandlung.

Das Drumherum war mittlerweile insgesamt anstrengender als die Verteidigung an sich. Aber so ist es halt manchmal…

23 Nov 19:11

Erneuerbare-Luftschlösser: Batterien sind nicht enthalten

by Chris Frey

Dieses 100%-Ziel klingt politisch so schön, dass es unwiderstehlich ist. Saubere Energie für jedermann. Unglücklicherweise ist die Konversion Amerikas zu 100% erneuerbarer Energie vollkommen unrealistisch, und das bedeutet, dass wir in große Schwierigkeiten geraten dürften. Sich dem Unmöglichen zu verpflichten ist wirklich ein sehr schlechtes Vorhaben.

Das Problem sind die Batterien, von welchen wir niemals etwas hören, wenn diese großen Pläne verkündet werden. Batterien sind nicht berücksichtigt, obwohl sie in unmöglichen Mengen gebraucht werden würden. Hier folgen ein paar einfache Fakten, die sich niemand zu erwähnen traut.

Während es bereits Batterie-Systeme im „Brauchbarkeits-Maßstab“ gibt, ist deren nationale Gesamtzahl praktisch Null im Vergleich zu dem, was notwendig wäre, um Stromerzeugung mittels 100% Erneuerbarer zu erreichen. Erneuerbare-Generatoren wie Wind und Solar erzeugen Strom in weniger als 50% der Zeit, manchmal erheblich weniger, manchmal überhaupt keinen. Dieses Problem nennt man Periodizität [intermittency*]

[*Für diesen Terminus ist keine vernünftige Übersetzung zu finden. Allerdings dürfte jeder wissen, was gemeint ist. Daher wird dieser Begriff im Folgenden im Original beibehalten und als normales deutsches Substantiv verwendet. Anm. d. Übers.]

Um dieses Problem zu lösen müssen wir viel mehr Strom erzeugen als benötigt wird, wenn die Erneuerbaren-Generatoren gerade einmal laufen und den Überschuss-Strom speichern für die Verwendung, wenn die Generatoren gerade nicht laufen, was die meiste Zeit der Fall ist. Für ein Haus kann das funktionieren, vor allem dann, wenn im Haus wenig Strom verbraucht wird. Aber es funktioniert nicht für eine ganze Nation mit hohem Pro-Kopf-Stromverbrauch, weit mehr als für ein Haus erforderlich.

Der in Haushalten verbrauchte Strom macht tatsächlich nur einen geringen Anteil des Energieverbrauchs aus. Es gibt auch den kommerziellen Verbrauch, von Bürogebäuden über Einkaufszentren bis zu Dienstleistern. Es gibt den Verbrauch in Gemeinden, etwa für Straßenbeleuchtung, Wasserversorgung und Abwasser-Behandlung. Dann gibt es natürlich den massiven Verbrauch seitens der Industrie einschließlich Eisenhütten.

Man beachte, dass viele der gleichen Menschen, die nach 100% erneuerbarer Energie rufen, auch die Konversion unseres Transportsystems zu Strom und die Verbannung interner Verbrennungsmaschinen fordern. Dieser zusätzliche Strombedarf würde den heutigen Bedarf in etwa verdoppeln. Stellen wir das aber mal einen Moment zurück, ohne es aus den Augen zu verlieren.

Allein die Schaffung der Erzeugungs-Kapazität für Erneuerbare auf 100% ist ein Monster-Job, vor allem, wenn dies in nur 20 bis 25 Jahren bewerkstelligt werden soll. Die Erzeugungskapazität Amerikas liegt derzeit bei über einer Million Megawatt (MW). Die meiste Energie wird erzeugt mittels Kernkraft, Kohle oder Gas. Rund 100.000 MW werden durch Wind und vielleicht 50.000 MW durch Solar erzeugt. Um also auf eine Million MW durch Wind und Solar allein zu kommen, sind gigantische Anstrengungen erforderlich.

Aber angesichts der Intermittency bringt uns die Einrichtung dieser gesamten Monster-Erneuerbaren-Erzeugung nur den halben Weg dorthin. Im Mittel müssen wir auch in der Lage sein, über die Hälfte des Outputs zu speichern.

Noch schlimmer, wir müssen auch in der Lage sein, mit den Extremfällen [high end cases] umgehen zu können, wenn die Erneuerbaren-Generatoren nicht mehrere Tage hintereinander laufen. Zum Beispiel wird maximal Strom während Hitzewellen verbraucht, wobei es fast nie richtig windig ist. Diese Hitzewellen können gut und gern eine Woche andauern. Weil sie häufig mit großen stabilen Hochdruckgebieten verknüpft sind, können diese Hitzewellen ohne wesentlichen Wind über großen Teilen der USA herrschen, so dass es keinen Windstrom gibt. Solar betreffend ist es nicht ungewöhnlich, wenn viele Gebiete des Landes eine Woche lang bewölktes und regnerisches Wetter haben.

Es gibt zwar schon einige wenige Batterie-Installationen in größerem Umfang in der Größenordnung von rund 1000 MW. Im Vergleich zu der einen Million MW oder so von benötigter Erneuerbaren-Erzeugungs-Kapazität (ohne E-Fahrzeuge) ist das aber praktisch nichts.

Tatsächlich wird Batterie-Kapazität auf zwei bedeutende Arten gemessen. MW besagt, wie schnell man die Energie aus ihnen abrufen kann, während Megawatt-Stunden (MWh) besagt, wie viel Strom vorhanden ist. Beides ist bedeutsam, wenn es um Backup von Erneuerbare-Generatoren geht.

Man nehme zum Beispiel an, dass wir einen 1000-MW-Windpark haben und 5 Tage lang kaum Wind weht. Wir brauchen ein Batteriesystem, das ausgelegt ist für 1000 MW und 120.000 MW (was schon sehr viel wäre).

Um also auf 100% Erneuerbare landesweit zu kommen, könnten wir Batterien für 1 Million MW brauchen mit einer Erzeugungs-Kapazität von 120 Millionen MWh. (Die tatsächliche Berechnung ist deutlich komplizierter als dieser einfache Überschlag). Und falls wir all unsere Verbrennungsmotoren elektrifizieren, wäre noch viel mehr erforderlich, vielleicht sogar doppelt so viel.

So also ist die Lage: Wir bräuchten eine überwältigend große Batterie-Speicherkapazität, um zu 100% Erzeugung durch Erneuerbare zu kommen – mit nichts. Wo findet dies Eingang in die Phantastereien der 100% Erneuerbaren? Warum sprechen die Politiker nicht über Batterien, obwohl diese doch ein viel größeres Problem sind als Wind und Solar? Woher sollen all diese Batterien kommen, und was soll mit ihnen geschehen?

Vielleicht liegt es daran, dass Batterien üble chemische Bomben sind, die erhebliche Mengen giftiger Abfälle produzieren. Sie trüben das hehre Bild der „sauberen Energie“, obwohl sie für diese unerlässlich sind.

Wir sollten anfangen, unsere Politiker über die Batterien zu befragen!

Link: http://www.cfact.org/2018/11/17/batteries-not-included-in-renewable-fantasy-plans/

Übersetzt von Chris Frey EIKE

23 Nov 19:08

Die Energiearmut

by Chris Frey

Armut hat viele Facetten. Armut an Geld, Kleidung, Essen fällt einem wohl als erstes ein, wenn man das Wort hört. Man kann auch arm an Mitgefühl, Ideen oder Wortschatz sein. Mehr als eine Milliarde Menschen auf der Erde können keine Elektroenergie nutzen, weil es sie an ihrem Ort nicht gibt oder sie unbezahlbar ist. Ob sie sich dadurch arm fühlen, sei dahingestellt. Oft sind die Menschen in einfachsten und ärmlichen Verhältnissen lebensfroher als beispielsweise verwöhnte Europäer, die eifernd auf der Suche nach Klima- und Gendergerechtigkeit durch die Gegend miesepetern.

Aber auch in hochentwickelten Ländern gibt es Armut, sichtbar im Straßenbild an einer zunehmenden Zahl Obdachloser, unsichtbar in den Haushalten, wo es am Nötigsten mangelt. Mit den europaweit höchsten Strompreisen greift in Deutschland auch Energiearmut um sich. Kostete den Haushaltskunden die Kilowattstunde Strom im Jahr 2000 noch 14 Cent, darf er heute etwa 30 Cent löhnen auf einer Rechnung, die inzwischen 10 Positionen umfasst. Auf diese fällt dann noch die Mehrwertsteuer an, auch auf die enthaltene Stromsteuer und die Zwangsumlagen. Die reine Strombeschaffung samt Vertrieb macht nur noch weniger als 20 Prozent des Rechnungsbetrages aus. Nur in diesen 20 Prozent spiegelt sich noch Marktgeschehen wider, dies als Hinweis an jene, die glauben, über ein Smartgrid und variable Strombezugspreise ließen sich Verbraucherpreise verhaltenswirksam senken.

In Deutschland wurde 2017 etwa 344.000 Haushalten der Saft abgedreht, 14.000 mehr als 2016. Die meisten Abschaltungen gab es in NRW (98.000).

Das ist keine Bosheit der Versorger. Es gibt mehrstufige Verfahren, die rechtssicher eingehalten werden müssen. Auf mehrere Mahnungen, auch mit dem Angebot der Ratenzahlung, folgt die Androhung der Abschaltung. Wenn dann der Blaumann vor der Tür steht, gibt es immer noch die Möglichkeit zur Zahlung. Letzten Endes bekommen nur sieben Prozent der Säumigen den Saft wirklich abgedreht. Das heißt auch, dass fast fünf Millionen Haushalte akut von Energiearmut bedroht sind. Somit lebt jeder achte Haushalt in Deutschland in gefährlicher Nähe des energetischen Bettelstabs.

Übrigens haben die Blaumänner auch keinen angenehmen Job, sie nennen sich „Nach- und Sperrkassierer“. Niemand empfängt sie freundlich, oft müssen sie sich beschimpfen lassen von Leuten, die einfach ihr Geld nicht einteilen können, andere ertragen es stoisch, weil sie wirklich blank sind. Nein, auch Mitleid dürfen die Exekutanten der Versorgungsunternehmen nicht haben. Ein willkommenes Thema für Linkspopulisten, wieder „Freibier für alle“ zu fordern. Auf die Idee, die Profiteure der Energiewende zur Solidarität heranzuziehen, kommen sie nicht.

Die latente und echte Energiearmut in einem angeblich so reichen Land wirft ein deutliches Licht auf die in der Öffentlichkeit und medial völlig unterbelichtete soziale Komponente unserer nationalstaatlichen Energiewende. Diese führt zu massiver Umverteilung von unten nach oben. Vereinfachend kann man sagen, dass der Hartz-IV-Empfänger im Marzahner Plattenbau dem Anwalt am Starnberger See hilft, eine solide Rendite mit seinem Solardach zu erzielen. Insgesamt kassierten die Ökoanlagen betreibenden Bayern 2016 zirka 5,34 Milliarden Euro an fester Einspeisevergütung und so genannter Marktprämie für regenerative Einspeisung. Aus föderaler Sicht mag man das sogar begrüßen, schließlich zahlte das Land mit 5,82 Milliarden Euro auch den Löwenanteil am Länderfinanzausgleich. Das Geld des Landes kommt von den Bürgern, fließt aber nur an einen auserwählten Kreis der ohnehin Besserverdienenden zurück.

Tatsache ist, die Energiewende macht die Armen ärmer und die Reichen reicher.

Die Armen sind unter uns

Natürlich führt die Energiewende nicht zwangsläufig in die Armut, sie führt aber zu asymmetrischen Belastungen bis in die Mittelschicht.

Wenden wir uns Jens zu. Er ist Mitte 40, angesehener Chirurg an einer angesehenen Klinik in Berlin-Mitte, wohnt im Speckgürtel südlich der Stadt in einem schicken Eigenheim mit Solardach und Wärmepumpe, er fährt Tesla und sein Arbeitgeber lässt ihn als begehrte Spitzenkraft kostenlos tanken. Gedanken an einen Wechsel in eine andere Klinik sollen nicht erst aufkommen. Jens ärgern die Staus auf dem Arbeitsweg, so gesehen lassen ihn die Dieselfahrverbote auf Entspannung hoffen. Sein Solardach bekam er über ein kommunales Agenda-21-Programm gefördert und für das Wärmepumpenaggregat zahlte ihm das BAFA (Bundesamt für Wirtschaft und Ausfuhrkontrolle) 6.000 Euro Zuschuss. Sein Windkraftfonds läuft auch ganz gut.

Dann ist da noch Kathrin. Sie ist die erste und beste OP-Schwester an Jens` Seite, sein „Goldstück“, wie er in echter Anerkennung sagt. Sie wohnt im selben Ort wie Jens, in einem Mehrfamilienhaus aus DDR-Zeiten. Der Vermieter ist einer von der sozialen Sorte, er hat die Miete bisher nur moderat erhöht. Den Gedanken an die Heizungsmodernisierung hat er vorerst aufgegeben, weil eigentlich eine komplette Reko des Hauses fällig wäre, die Mieter aber mehrheitlich die dann unumgängliche Mieterhöhung ablehnen. Kathrin muss flexibel sein, sie hilft auch beim Notdienst aus. Nicht nur deshalb fährt sie nicht mit den Öffentlichen in die Klinik. Eine Fahrgemeinschaft mit Jens geht nicht, selbst wenn sie Tagesdienst hat. Er fängt später an und arbeitet länger. Mit Bus, S- und U-Bahn wäre sie zu lange unterwegs und abends oder nachts käme das für sie ohnehin nicht in Frage. So muss der alte Astra Diesel noch eine Weile halten, er läuft noch gut, ist aber nur Euro 4. So einfach kann sie nicht wechseln, die Kinder sind noch in der Ausbildung, da bleibt wenig zum Zurücklegen. Sie fürchtet Fahrverbote in der Innenstadt, aber es wird schon irgendwie gehen. Wenn sie nicht mehr durch Kreuzberg darf, muss sie halt östlich über den Prenzlauer Berg fahren. Das ist zwar weiter und damit stauriskanter, aber was soll sie sonst machen?

Jens ist aus dem Urlaub zurück, er war auf den Malediven schnorcheln. Er ist zufrieden mit sich und der Welt. Eine CO2-Steuer würde ihn nicht sorgen, er ist bezüglich Heizung und Mobilität gut elektrifiziert. Bei den nächsten Wahlen wird er wohl wieder die Grünen wählen.

Kathrin ist auch aus dem Urlaub zurück, sie war am Schwielowsee, das sind nur ein paar Kilometer. Nun ist sie gut erholt und muss Montag wieder los mit ihrem Opel, den sie liebevoll „mein kleiner Stinker“ nennt. Eine CO2-Steuer würde sowohl die alte Gasheizung im Mehrfamilienhaus als auch ihr Auto treffen – also am Ende natürlich sie selbst. Bisher kam sie finanziell gut über die Runden, sie zweifelt, ob es so bleiben wird. Zu den nächsten Wahlen wird sie wohl wieder nicht gehen. Ändert sich ja doch nichts, die Weltrettung durch die Klimaschutzeinheitsparteien wird weitergehen.

Natürlich sind Jens und Kathrin erfunden. Ähnlichkeiten zu echten Menschen sind möglich, sogar wahrscheinlich. Etwa acht Millionen Menschen in Deutschland sind Profiteure der Stromwende, 72 Millionen zahlen drauf.

Wir haben auch Armut in der Regierung. Es mangelt an sozialer Verantwortung, sie wurde verdrängt durch die „Klimaverantwortung“. Kein Mangel besteht indes an Hinweisen, dass künftig mehr abgegeben und geteilt werden müsse.

Die Ökoprofiteure sind damit nicht gemeint.

23 Nov 19:05

Lehrerfortbildung: Nichts Genaues weiß man nicht

by ZEIT ONLINE: Schule - Thomas Kerstan
Die Leistung von Schülern wird genau dokumentiert – doch kaum ein Bundesland weiß, wie seine Lehrerinnen sich weiterbilden. Experten fordern eine bessere Kontrolle.
23 Nov 15:22

Nuclear Pride – Kernenergie weltweit im Aufwind

by Rainer Klute

Nuclear Pride – das bedeutet Begeisterung für Kernenergie und ein selbstbewusstes, offenes Eintreten für Kernenergie. Kernkraftfreunde verstecken sich nicht länger, sondern stehen begeistert und stolz zu dieser sauberen und zuverlässigen Stromerzeugung. Wer am 21. Oktober auf dem Marienplatz in München war, konnte diese Begeisterung beim Nuclear Pride Fest miterleben.

Doch nicht allein das Nuclear Pride Fest signalisiert, dass es mit der Kernenergie wieder aufwärts geht. Ereignisse gerade der letzten Tage und Wochen senden sehr positive Signale für eine bevorstehende weltweite Renaissance der Kernenergie. Das hat vor allem mit dem Klimawandel zu tun.

Nuclear Pride Fest in München

Die Nuclear Pride Coalition, ein im September gegründetes Bündnis von rund 50 Organisation und Einzelpersonen aus Europa und den USA, hatte beim Nuclear Pride Fest bewusst auf eine Willkommensatmosphäre gesetzt. An verschiedenen Ständen und auf der »Bühne der Begeisterung« konnten Besucher und Besucherinnen mit den Kernkraftfreunde ins Gespräch kommen, an Aktionen teilnehmen und sich über Kernenergie, Klimawandel, Versorgungssicherheit oder Strahlung informieren. Nicht jeder wusste, dass man durch den Verzehr einer Banane mehr Radioaktivität in den Körper aufnimmt, als wenn man ein Jahr lang in der Nähe eines Kernkraftwerks lebt.

Auch Kernkraftgegner waren willkommen. Das heißt, sie wären willkommen gewesen, wenn sie sich denn hätten blicken lassen. Einige Grüne, die mit Metallgegenständen in den Händen über den Marienplatz marschierten, entpuppten sich als Trachten-Blaskapelle. Das organisierte Anti-Atom-Establishment glänzte durch Abwesenheit. Eine Pro-Kernkraft-Bewegung aus der Mitte der Gesellschaft, ganz normale Bürger als Nuklearbegeisterte – das ist für Greenpeace, Grüne und andere Antiatomiker neu. Damit kommen sie nicht klar.

Das überkommene, schablonenhafte Denken der Kernkraftgegner demonstriert exemplarisch B.U.N.D.-Regionalgeschäftsführer Axel Mayer. In einem Kommentar der Hochrhein-Zeitung offenbart er, dass er über die bekannten Platitüden aus der antinuklearen Ecke nicht hinauskommt. Für ihn stehen hinter der Nuclear-Pride-Bewegung keine Bürger, denen Klimaschutz oder Versorgungssicherheit am Herzen liegen, sondern PR-Agenturen und Konzerne. In Mayers Augen sind es »das globale atomare Dorf, die alten mächtigen Seilschaften aus Konzernen, Lobbyisten und Atomparteien«, die hier ihr übles Werk treiben. Klar, es kann nicht sein, was nicht sein darf!

Motivationsschub für Kernkraftbefürworter

Beeindruckend, wie viele Kernkraftfreunde sich motivieren ließen, nach München zu kommen! Kernenergie hat offensichtlich noch immer viel mehr Sympathisanten in Deutschland, als man glaubt. Viele trauen sich nur nicht, darüber zu reden, weil sie Ablehnung durch Freunde und Verwandte fürchten. Doch nun gibt es die Nuclear-Pride-Bewegung, mit der sie sich identifizieren können. In der Gemeinschaft ist man nicht mehr allein, und das macht Mut, sich zu outen. Das Nuclear Pride Fest als Kondensationspunkt für Kernkraftbegeisterte: das hat funktioniert.

Die positive Stimmung zeichnete sich schon im Vorfeld ab. Schon bald nach den ersten Berichten über die Gründung der Nuclear Pride Coalition und das geplante Fest, abonnierten bemerkenswert viele Personen einen der Nuklearia-Mailverteiler oder schickten gleich einen Mitgliedsantrag ein.

Künftig soll es jedes Jahr immer am dritten Sonntag im Oktober ein Nuclear Pride Fest geben, im nächsten Jahr in Paris.

Rückenwind für Kernenergie

Überhaupt erlebt Kernenergie momentan weltweit einen bemerkenswerten Rückenwind. Immer mehr Klimaschützer stellen nämlich fest, dass sich die Treibhausgas-Emissionen mit Sonne und Wind allein nicht oder viel zu langsam senken lassen. Der Anfang Oktober erschienene Sonderbericht des IPCC zum 1,5-°C-Ziel macht aber deutlich, dass eine Senkung der CO2-Emissionen in großem Umfang und sehr schnell zu erfolgen hat. Daher fangen erste Akteure an, Kernenergie in einem neuen Licht zu sehen und als eine Technik zu begreifen, die große Mengen Energie liefert, ohne nennenswerte Mengen an CO2 oder Luftschadstoffen freizusetzen.

Der neue Trend hin zur Kernenergie sei an einigen Ereignissen der allerjüngsten Vergangenheit festgemacht:

Sonderbericht des IPCC

Am 6. Oktober erscheint der Sonderbericht des IPCC zur 1,5-°C-Erwärmung. Die meisten Pfade, die die globale Erwärmung auf 1,5 °C beschränken, sehen eine Vervielfachung der heutigen Kernkraftkapazitäten vor. Einige 1,5-°C-Pfade kommen ohne neue Kernenergie aus, aber sie sehen derart massive Einschnitte in Lebensweise und Lebensqualität vor, dass sie keine Akzeptanz finden dürften.

Kalifornien: emissionsfrei statt erneuerbar

Am 10. September 2018 unterschreibt der kalifornische Gouverneur Jerry Brown ein neues Gesetz, das den US-Bundesstaat dazu verpflichtet, ab spätestens 2045 nur noch Strom aus emissionsfreien Quellen zu beziehen. Wichtig ist das Wort »emissionsfrei«, um das zuvor heftig gerungen worden war. Denn eine erneuerbare Quelle ist nicht automatisch auch emissionsfrei, wie das Beispiel Biomasse zeigt. Umgekehrt kann eine nicht erneuerbare Quelle sehr wohl emissionsfrei sein, siehe Kernenergie.

Arizona setzt auf emissionsfreien Strom

Am 6. November lehnen die Wähler in Arizona mit einer überwältigenden Mehrheit von knapp 70 Prozent die »Proposition 127« ab. Dieser Verfassungszusatz hätte den Staat zu einem 50-Prozent-Anteil erneuerbarer Energien verpflichtet. Arizona erzeugt aber bereits heute 46 Prozent seines Strom aus emissionsfreien Quellen. 79 Prozent davon stammen aus dem Kernkraftwerk Palo Verde. Die Proposition 127 hätte das vorzeitige Ende des Kernkraftwerks bedeutet. »Macht doch nichts«, sagen die Freunde der Erneuerbaren an dieser Stelle, »dann ersetzen wir das Kernkraftwerk halt durch Wind und Photovoltaik!« »Doch, macht etwas«, sagen alle, die wissen, dass ein stillgelegtes Kernkraftwerk höchstens zu einem geringen Teil durch Sonne und Wind ersetzt wird. Den Löwenanteil der Erzeugung übernehmen fossil befeuerte Kraftwerke, die immer dann einspringen, wenn die Sonne nicht scheint oder der Wind nicht weht. Übrigens: Initiator der Proposition 127 war der kalifornische Milliardär Tom Steyer, der einen Großteil seines Vermögens mit Kohle gemacht hat. Ein Schelm, der Böses dabei denkt!

Die Niederlande werden pro-nuklear

Am 26. Oktober bringt das niederländische Fernsehen einen positiven Hintergrundbeitrag zur Kernenergie. Highlights darin: eine Berichterstattung vom Nuclear Pride Fest und eine Greenpeace-Vertreterin, die – anders als das deutsche Umweltministerium – Kernenergie als CO2-arm anerkennt. Und die sagt: »Wir sind nicht prinzipiell gegen Kernenergie.« Das sind ganz neue Töne!

Am 4. November ist Kernenergie Thema der Sendung »Zondag met Lubach«. Symbolisch holt Satiriker Arjen Lubach Kernenergie aus der Tabuzone und stellt ihre Vorteile heraus, insbesondere die Emissionsfreiheit. Die typischen Argumente der Kernkraftkritiker zerlegt Lubach genüsslich.

Am 5. November fordert Klaas Dijkhoff, Fraktionsvorsitzender der Regierungspartei VVD im niederländischen Parlament, den Bau neuer Kernkraftwerke. Ihn motivieren die Pariser Klimaziele: »Ich sehe nicht, wie Sie die Ziele ohne Kernkraft erreichen. Was mich betrifft, werden wir schnell mit dem Bau beginnen.«

Am 6. November zeigt eine nicht repräsentative Umfrage von NPO Radio 1 eine Zweidrittel-Zustimmung der Hörer zur Kernenergie.

Am 7. November berichtet die NL Times, die Parteien im niederländischen Parlament seien mehrheitlich für Kernenergie. Zustimmung und Ablehnung ziehen sich quer durch Regierungs- und Oppositionslager. Die Energieversorger winken allerdings ab: Man wisse nicht, wie sich Strompreise und gesellschaftliche Unterstützung entwickeln werden.

Taiwan stimmt über Kernkraft ab

Am 23. Oktober erstreitet eine pro-nukleare Bürgerinitiative gerichtlich die Zulassung eines Referendums über Kernenergie, wie Focus Taiwan berichtet. Die Regierung will bis 2025 aus der Kernenergie aussteigen und versuchte offenbar, das Referendum zu verhindern. Denn die Wahlkommission erkannte zunächst nicht alle gesammelten Unterstützungsunterschriften an. Es bedurfte eines Hungerstreiks und eines Gerichtsentscheids, um das Referendum doch noch durchzusetzen. Taiwans Ex-Präsident Ma Ying-jeou unterstützt die Initiative: »Gegen Kernenergie zu sein, ist out. Jetzt geht es darum, die CO2-Emissionen zu senken und die globale Erwärmung zu bekämpfen.« Ein großflächiger Stromausfall im vergangenen Jahr und eine hohe Luftverschmutzung sind gute Argument der Kernkraftbefürworter. Die Abstimmung findet am 24. November statt.

[Nachtrag, 2018-11-25: Das Referendum in Taiwan war erfolgreich. Über 59 % der Wähler lehnten den von der Regierung geplanten Atomausstieg ab.]

Australien: erste Schritte zur Legalisierung von Kernenergie

Am 16. Oktober schließt der australische Premierminister Scott Morrison Kernenergie nicht mehr kategorisch aus. Gegenwärtig ist Kernenergie in Australien verboten, aber die Diskussion darüber läuft.

UNECE jetzt auch mit Kernenergie

Vom 12. bis 15. November findet in Kiew das neunte International Forum on Clean Energy for Sustainable Development (Internationales Forum über saubere Energien für nachhaltige Entwicklung) statt. Bislang musste Kernenergie bei dieser Konferenz der UN Economic Commission for Europe (UNECE) draußen bleiben. Jetzt ist Kernenergie erstmals dabei. Scott Foster, Direktor der Sustainable Energy Division der UNECE, wägt die Risiken der Kernenergie gegen die Risiken des Klimawandels ab. Foster: »Entweder lassen wir die fossilen Brennstoffe im Boden, oder wir verzichten auf Kernenergie. Viele Optionen haben wir nicht.«

Union of Concerned Scientists will Kernkraftwerke erhalten

Das war ein Paukenschlag! Am 8. November rückt die die Union of Concerned Scientist (UCS) als erste größere Umweltorganisation von ihrer traditionellen Anti-Kernkraft-Haltung ab und fordert den Erhalt bestehender Kernkraftwerke. Eine schnelle Dekarbonisierung sei nicht zu schaffen, wenn man auch Kernkraftwerke durch andere emissionsfreie Quellen ersetzen müsse, argumentiert die UCS. Diese Entscheidung dürfte Signalwirkung in andere Umweltorganisationen und in die Politik hinein haben.

CO2-Senkung mit allen Mitteln, außer mit dem wirksamsten

Viele Klimaschützer pflegen allerdings nach wie vor ihre gewohnte kognitive Dissonanz: Einerseits wollen sie den CO2-Ausstoß mit allen Mitteln senken, andererseits lehnen sie das wirksamste Mittel ab: Kernenergie. Man darf gespannt sein, wie lange sie das noch durchhalten!


  • Fotos: Iida Ruishalme, Jadwiga Najder, Joris van Dorp, Rainer Klute
  • Grundlage dieses Artikels ist mein Vortrag gleichen Titels bei der Jahrestagung technikfreundlicher Vereine am 2018-11-17 in Zempin auf Usedom.
  • Alle verlinkten Quellen sowie einige weitere in der Zotero-Bibliothek der Nuklearia

Rainer Klute

Rainer Klute ist Diplom-Informatiker, Nebenfach-Physiker und Vorsitzender des Nuklearia e. V. Seine Berufung zur Kernenergie erfuhr er 2011, als durch Erdbeben und Tsunami in Japan und das nachfolgende Reaktorunglück im Kernkraftwerk Fukushima-Daiichi auch einer seiner Söhne betroffen war.

Der Beitrag Nuclear Pride – Kernenergie weltweit im Aufwind erschien zuerst auf Nuklearia.

23 Nov 15:18

Die horrenden Kosten eines Windparks vor der Küste Virginias

by Chris Frey

Das Projekt mit der Bezeichnung Coastal Virginia Offshore Wind (CVOW) wird das erste Offshore-Windprojekt im Atlantik sein. Die Firma Energy and Orsted A/S aus Dänemark wird zwei 6-MW-Turbinen errichten, geliefert von Siemens Gamesa aus Spanien. Die geschätzten Projektkosten belaufen sich auf atemberaubende 300 Millionen Dollar, zu zahlen mittels der Stromrechnungen für Haushalte und Industrie in Virginia.

Dem Wind Technologies Market Report zufolge lagen die Marktpreise für Windturbinen in den USA etwas unter 1000 Dollar pro Kilowatt oder um etwa 6 Millionen Dollar für eine 6-MW-Turbine. Virginia wird 25 mal höhere Preise als die Marktpreise in den USA für CVOW-Turbinen bezahlen.

Der Großhandelspreis für Strom in Virginia liegt bei etwa 3 Cent pro Kilowattstunde (KWh). Dies ist der Preis für Strom erzeugt durch Kohle, Erdgas oder Kernkraft. Der Preis für Strom aus den beiden Offshore-Windturbinen wird bei 78 Cent pro KWh liegen, also schwindelerregend 26 mal so hoch sein wie der Einzelhandelspreis.

Das SCC räumte ein, dass das Projekt nicht das Ergebnis einer Ausschreibung war und dass es nicht erforderlich ist, um die Zuverlässigkeit der Stromversorgung oder eine Kapazitäts-Reserve sicherzustellen. Auch wurde gefolgert: „…es scheint unwahrscheinlich, dass die Kosten der Offshore-Windanlage in absehbarer Zukunft wettbewerbsfähig werden im Vergleich zu Solar oder Onshore-Windprojekten“. Die Stromzahler in Virginia werden also auch für jedwede Kostensteigerungen des Projektes aufkommen müssen.

Warum hat die SCC ein derartig teures Projekt genehmigt? Die SCC wies darauf hin, dass die Gesellschafterversammlung von Virginia bei sechs Gelegenheiten unabhängig voneinander erklärt hatte, dass Offshore-Wind „im öffentlichen Interesse“ liege. Gouverneur Ralph Northam sagte, dass das Projekt „die Windenergie-Ressource vor der Küste Virginias ausschöpfen und diese Industrie viele ökonomische Vorteile in unser Commonwealth bringen würde“.

Wie bringt es grüne Energie fertig, dass Regierungsbeamte weit über dem Marktniveau liegende Preise zu bezahlen? Es ist zweifelhaft, dass der Gouverneur von Virginia Northam oder Mitglieder der Gesellschafterversammlung 25 mal den Marktpreis berappen würden für Nahrung, Kleidung oder Haushalt. Aber sie sind schnell dabei, ein Projekt zu genehmigen, welches die Stromzahler in Virginia teuer zu stehen kommen wird.

Unabhängig von den Projektkosten sollten sich die Bürger von Virginia Sorgen machen, dass diese Windturbinen nicht ihre ganze projizierte Lebensdauer von 25 Jahren erreichen werden. Das CVOW-Projekt ist das südlichste Windprojekt vor der atlantischen Küste und Schauplatz periodischer Hurrikan-Aktivität.

Der NOAA zufolge sind während der letzten 150 Jahre 34 Hurrikane innerhalb eines Radius‘ von ca.150 km um den Aufstellungsort verzeichnet worden. Fünf dieser Stürme waren der Kategorie 3 zuzuordnen, darunter die Hurrikane Bob 1991 und Emily 1993. Im Schnitt kommt es in der Region alle 5 Jahre zu einem Hurrikan.

Den Projekt-Spezifikationen zufolge sollen die CVOW-Turbinen Windgeschwindigkeiten bis 180 km/h überstehen, ebenso wie sie darauf ausgelegt sein sollen, Wellen in einer Höhe von 15,6 Meter zu widerstehen.

Aber es ist zweifelhaft, dass diese Turbinen sowohl Wind als auch Wellen in einem großen Sturm überstehen. Dem National Hurricane Center zufolge treten in Hurrikanen der Kategorie 3 Windgeschwindigkeiten von 180 bis 210 km/h auftreten können, was über dem gesetzten Limit liegt. Bereits in Hurrikanen der Kategorie 1 treten Wellenhöhen deutlich über 15 Meter auf. Der Hurrikan Florence brachte Windgeschwindigkeiten eines Sturmes der Kategorie 1 mit sich, als er am 14. September auf die Küste von North Carolina bei Wrightsville Beach traf. Aber schon zwei Tage zuvor wurden im nordöstlichen Sektor von Florence Wellenhöhen bis 25 Meter aufgezeichnet.

Wer nimmt sich der Stromzahler von Virginia an? Mit Sicherheit nicht Gouverneur Northam, die Gesellschafterversammlung oder die Firma Dominion Energy. Noch lange nachdem die Regierungsbeamten von Virginia aus dem Amt sind, werden die Bürger von Virginia am Haken eines teuren Offshore-Windsystems zappeln, welches vermutlich das turbulente Wetter des Atlantischen Ozeans nicht überstehen wird.

—————————

Originally published in The Western Journal., republished here at the request of the author. Steve Goreham is a speaker on the environment, business, and public policy and author of the book Outside the Green Box: Rethinking Sustainable Development.

Link: https://wattsupwiththat.com/2018/11/19/the-frightful-cost-of-virginia-offshore-wind/

Übersetzt von Chris Frey EIKE

23 Nov 15:17

Neue Kita für Wedel geplant: 140 Plätze

Das Elmshorner Bauunternehmen Semmelhaack will der Stadt die Einrichtung bauen. Ziel: Fertigstellung bis Ende 2019.
23 Nov 15:17

VON FRANZOSEN LERNEN Diesel: Fahrverbote in Essen, auch Berliner Stadtautobahn betroffen

by Admin
Eine der wichtigsten Autobahnen Deutschlands soll gesperrt werden. Na, wem zuliebe? Natürlich der Umwelt. Das Verwaltungsgericht Gelsenkirchen hat für Essen eine Diesel-Fahrverbotszone angeordnet. Die soll auch für die A 40 gelten, auf der sich täglich Pendler und Fernverkehr durchzwängen.

Die A 40 ist eine der wichtigsten Verbindungsstrecken quer durch das Ruhrgebiet. Solch ein Nadelöhr sperren zu lassen hebt schon das Gemüt eines größenwahnsinnigen Chefs des privaten Vereins »Deutsche Umwelthilfe e.V.«. Der sprach von einem bahnbrechenden Urteil, das »in die Geschichte der Luftreinhaltung« eingehen werde. Zum ersten Mal werde eine Bundesautobahn, »Symbol der Mobilität in Deutschland« in ein Fahrverbot einbezogen. Ein mögliches Fahrverbot soll ab dem kommenden Jahr gelten.Der Oberbürgermeister von Essen: ratlos. Und die Autofahrer zerbrechen sich den Kopf, wie sie ihr Auto wechseln sollen, wie sie zur Arbeit und zurück kommen.

Einige Messstationen registrieren für Essens Jahresmittelwerte leichte Erhöhungen. In der Krayer Straße beispielsweise sind es 45 Mikrogramm pro Kubikmeter Luft. Die EU sieht hier 40 µg/m3 Luft vor, die USA übrigens 100 µg/m3; in Büros sind 60 µg/m3, am Arbeitsplatz 950 µg/m3 erlaubt.

Die Genauigkeit der Verfahren liegt etwa bei 2 µg/m3. Erstaunlicherweise zeigen die Essener Luftwerte zum Beispiel für den Monat Oktober 2018 keine Überschreitungen der verschiedenen Grenzwerte auf. Die »Deutsche Umwelthilfe e.V.« hatte übrigens selbst in einer Propaganda-Aktion »Abgasalarm« melden wollen und mit Proberöhrchen Stickoxid-Konzentrationen gemessen. Eine sehr zweifelhafte und nicht aussagefähige Methode. Dennoch musste sie den Abgasalarm abblasen, weil die mit Müh‘ und Not hochgepushten Werte immer noch deutlich unter den EU-Grenzwerten lagen.Wer veralbert hier also wen?

Der größenwahnsinnig gewordene »Verein deutsche Umwelthilfe e.V.« träumt bereits von weiteren Autobahnsperren auch rund um Berlin und bezeichnet ein Fahrverbot auf der Berliner Stadtautobahn als »unausweichlich«. Es müsse ein größeres Gebiet gesperrt werden, die Sperrung einzelner Straßen bringe nicht den gewünschten Effekt.

Der Abmahnverein freute sich, das Gericht habe ausdrücklich angeordnet, bei der Sperrung von Straßen auch zu hohe Belastung von Ausweichstrecken zu vermeiden. Daher seien einzelne Sperrmaßnahmen, wie etwa für einen Autobahnabschnitt, in Berlin kaum praktikabel. Nötig seien größere Sperrzonen. Nur so würden die Besitzer der betroffenen Dieselautos dazu gebracht, die nötigen Umrüstungen bei den Herstellern einzufordern und umzusetzen.Wobei – Berlin einfach mal dichtmachen, Straßen zu, Deckel drauf? Hätte mal was, zumindest aus süddeutscher Sicht …

Ganz anders dagegen Bilder aus Frankreich. Im Nachbarland gehen hunderttausende von Bürgern auf die Straßen, besetzen Straßen und Autobahnen, den Champs-Elysée und den Mont Blanc Tunnel. Der Aufstand geht quer durch Frankreich.

Erkennungszeichen: die gelben Warnwesten, wie sie in den Autos liegen. »Gilets Jaunes« ist zu einer regelrechten Bewegung geworden. »Macron«, steht auf manchen Westen, »der einzige Rentner, der dich noch unterstützt, ist deine Frau!«
Äußerer Anlass sind die ebenfalls sündhaft angestiegenen Benzinpreise, während Rohöl immer preiswerter wird. Die Regierung Macron hat zudem verkündet, zum Beginn des kommenden Jahres die Steuern auf Kraftstoffe weiter zu erhöhen. 15 Milliarden Euro mehr soll das in die leeren Kassen spülen. Nach außen verkauft sie diesen weiteren Raubzug mit »ökologischen Gründen«. Die Franzosen sollen weniger fahren und damit das Klima retten.

Anders als die Grünen in Deutschland träumt jedoch der normale Franzose nicht von horrenden Spritpreisen, um das Klima zu retten. Er wehrt sich gegen die fast zwei Euro für einen Liter Supersprit, den er an der Tankstelle bezahlen muss. Aber das ist nicht das Einzige, das die Franzosen wütend macht. Die täglichen Kosten sind im Vergleich zum Verdienst zu hoch geworden. Ein Video erschüttert Frankreich. Eine Rede der »Wutbürgerin«, würden deutsche Zeitungen sagen, Jacline Mouraud, millionenfach angesehen. »Wohin treibt Frankreich?« Ruft sie Macron wütend via Video auf Facebook zu. Fehlt nur noch die Marseillaise am Schluss. Sie tritt in TV-Shows auf und schreit in Diskussionen auch Abgeordnete an: »Frankreich leidet!«Noch während hoch bezahlte Journalisten und TV-Leute versuchen, die hohen Preise mit ökologischen Gründen und dem Übergang ins ökologische Zeitalter zu begründen, schleudern ihnen wütende normal niedrigverdienende Franzosen entgegen: »Geben Sie uns Ihr Gehalt, und wir zahlen Ihnen gern die Steuern.«
Interessant ist dabei, dass es sich um freie Bewegungen handelt. Es gibt keine gewerkschaftliche Organisation, wie Innenminister Christophe Castaner beklagt; bedeutet für ihn: keine Kanalisierung der Proteste. In Kommentaren zu den Sendungen machen sich Franzosen Luft: »Es ist der Staat, der die Arbeitslosigkeit schafft!«

»Ich bin 27 Jahre alt, ich arbeite, und ich liebe meinen Job. Allerdings habe ich 64 Kilometer für die Hinfahrt und 64 Kilometer für die Rückfahrt. Ich verdiene etwa 1.360 Euro pro Monat, ganz zu schweigen davon, dass ich alle meine Rechnungen, Wasser, Internet, Benzin bezahlen muss und die anderen Kosten für mein Auto, meine Gesundheit und die anderen Dinge im täglichen Leben. Am Ende des Monats habe ich fast nichts mehr übrig, ich lebe nicht mehr, ich überlebe. Das ist kein Leben, und einige Leute sind überrascht, dass die Selbstmordrate steigt. Wacht auf. Rentner, die ihr ganzes Leben lang gearbeitet haben und in Armut leben, was ist das? Ich habe den Eindruck, dass die heutige Politik uns nicht hilft, aber sie treibt uns nach unten, und leider habe ich den Eindruck, dass es immer schlimmer wird. Millionen und Abermillionen Menschen in der Küche, aber die Steuern steigen weiter. Es ist beschämend.«Präsident Macron bleibt nicht viel anderes übrig, als »Respekt und Achtung« für die Protestierenden zu äußern. So viele Franzosen kann er kaum gleichzeitig diskreditieren. Er schiebt aber gleich hinterher: »Es gibt viele Leute, die diese Bewegung missbrauchen wollen.«

Auf den Straßen ertönen die Rufe: »Vive les gilets jaunes! Lang leben die gelben Westen!« Am 24. November soll Paris eine tote Stadt sein, liest man.

Die Gilets Jaunes als neue Sansculottes. Die Guillotinen bleiben in den Museen. Die »Gelbe Westen«-Bewegung erreicht jetzt auch Belgien. Die blockierten die E 19 von Mons nach Brüssel. Ein Lastwagen hat nach Angaben des Senders RTBF Feuer gefangen. Bäume wurden gefällt und über die Fahrbahn gelegt. Auch hier sind die Menschen wütend, weil der Staat die Bürger ausquetscht.Sind solche Bilder auch in Deutschland möglich? Für mich schwer vorstellbar, zu durchgegrünt. Zu oft tönt der Spruch: Richtig so mit Fahrverboten, die Luft muss schließlich wieder sauber werden. Dass sie das bereits in hohem Umfang ist, und dass der Begriff des »stinkenden« Diesels eine überholte Erzählung aus dem vergangenen Jahrhundert ist – geschenkt. Ein dubioser Abmahnverein kann vom Kampf für die Gesundheit der Landsleute schadronieren. Deutsche Untertanen lassen sich im Zweifel das Auto wegnehmen und tragen mehr oder weniger klaglos die massiven Wertverluste. Deutschland 2018.

Der Beitrag erschien zuerst bei TICHYS Einblick hier


20 Nov 09:57

OneDrive Gets Integrated Into Skype

by Mehedi Hassan

Skype is getting native integration for OneDrive, allowing you to share files with a few clicks.

The post OneDrive Gets Integrated Into Skype appeared first on Thurrott.com.

20 Nov 09:57

Intune’s journey to a highly scalable globally distributed cloud service

by Brad Anderson

Earlier this year, I published the 1st blog post in a 4-part series that examines Intune’s journey to become a global, scalable cloud service.  Today, in Part 2, I’ll explain the three proactive actions we took to prepare for immediate future growth. The key things we learned along the way are summarized at the end. 

 

While this blog primarily discusses engineering learnings, if you are an Intune administrator, I hope this blog gives you an added level of confidence on the service that you depend on every day; there is extraordinary amount of dedication and thought that go into building, operating, scaling and most importantly continuously improving Intune as a service.  I hope some of the learnings in this blog are also applicable to you, we certainly learned a ton over the years on the importance of data driven analysis and planning.

 

To quickly recap Part 1 in this series, the four key things we learned from re-building Intune were:

  1. Make telemetry and alerting one of the most critical parts of your design – and continue to refine the telemetry and alerting after the feature is in production.
  2. Know your dependencies. If your scale solution doesn’t align to your dependent platform, all bets are off.
  3. Continually validate your assumptions. Many cloud services/platforms are still evolving, and assumptions from 1 month ago may no longer be valid.
  4. Make it a priority to do capacity This is the difference between being reactive and proactive for scale issues.

With all of that in mind, here (in chronological order) are the actions we took based on what we learned:

Action #1:  Fostering a Data-driven Culture

Deciding to make our culture and decision-making ethos entirely data-driven was our absolute top priority.  When we realized that the data and telemetry available to us could be core parts of engineering the Intune services, the decision was obvious.  But we went further by making the use of data a fundamental part of every person’s job and every step we took with the product.

 

To entrench data-driven thinking into our teams, we took a couple different approaches:

  • Moneyball training
  • Repeated emphasis in daily standups and data examinations.
  • Instituting weekly and monthly post-mortem reviews as well as Intune-wide service, SLA, and incident reviews.

 

In other words:  We took every opportunity, in any incident or meeting, to emphasize data usage – and we kept doing it until the culture shift to a hypothesis-driven engineering mindset became a natural part of our behavior.  Once we had this, every feature that we built had telemetry and alerting in place and it was verified in our pre-production environments before releasing to customers in production.

 

Now, every time we found a gap in telemetry and/or alerting in production, we could make it a high priority to track and fix the gaps.  This continues to be a core part of our culture today.

 

The result of this change was dramatic and measurable.  For example, before this culture change, we didn’t have access to (nor did we track) telemetry on how many customer incidents we could detect via our internal telemetry and alerting mechanism.  Now, a majority of our core customer scenarios are detected by internal telemetry, and our goal is to get this to > 90%.

 

Action #2:  Capacity Planning

Having predictive capacity analysis within Intune was something we simply could not live without.  We had to have a way to take proactive actions by anticipating potential scale limits much earlier than they actually happened.  To do this, we invested in predictive models by analyzing all our scenarios, their traffic and call patterns, and their resource consumptions.

 

The modeling was a fairly complex and automated process, but here it is at a high level:

  • This model resulted in what we called workload units.
  • A workload unit is defined as a resource-consuming operation.
    • For example, a user login may equal to 1 workload unit while a device login may equal to 4 workload units – i.e., 4 users consume similar number of resources as 1 device.
  • A resource is defined by looking at a variety of metrics:
    • CPU cores
    • Memory
    • Network
    • Storage
    • Disk space
    • And evaluating the most limiting resource(s).
  • Typically, this turns out to be CPU and/or memory.
  • Using the workload definitions, we generated capacity in terms of workload units.
    • For example, if 1 user consumed 0.001% of CPU, 1 CPU core would equate to a capacity of 100,000 user workload units.
    • That is, we can support a max of 100,000 users or 25,000 devices (since 4 users == 1 device) or combinations of them with 1 CPU core.
  • We then compute the total capacity (i.e., max workloads) of the cluster based on the number of nodes in the cluster.

 

Once we had defined the capacities and workloads units, we could easily chart the maximum workload units we could support, the existing usage, and be alerted anytime the threshold exceeded a pre-defined percentage so that we could take proactive steps.

 

Initially, our thresholds were 45% of capacity as “red” line, and 30% as “orange” line to account for any errors in our models.  We also chose a preference toward over-provisioning rather than over-optimizing for perf and scale. A snapshot of such a chart is included below in Figure 1. The blue bars represent our maximum capacity, the black lines represent our current workloads, and the orange and red lines represent their respective thresholds. Each blue bar represents one ASF cluster (refer to  first blog on ASF). Over time, once we verified our models, we increased our thresholds significantly higher.

 

Figure 1: Intune’s Predictive Capacity Model

1.png

 

Action #3:  A Re-Architecture Resulting from Capacity Prediction

The results of the capacity modeling and prediction we designed turned out to be a major eye-opener. As you can see in Figure 1, we were above the “orange” line for many of our clusters, and this indicated that we needed to take some actions. From this data (and upon further analyses of our services, cluster, and a variety of metrics), we drew the following very valuable three insights:

  • Our limiting factor was the node as well as cluster This meant we had to scale up and out.
  • Our architecture with stateful in-memory services required persistence so that secondary replicas could rebuild from on-node disk states rather than performing a full copy state transfer every time the secondary replica started (g. such as process, node restarts, etc).
  • Our messaging (pub/sub) architecture needed to be replaced from a home-grown solution with Azure Event Hubs so that we could leverage the platform that satisfied our needs of high throughput and scale.

 

We quickly realized that even though we could scale out, we could not scale our nodes up from the existing SKUs because we were running on pinned clusters. In other words, it was not possible to upgrade these nodes to a higher and more powerful D15 Azure SKU (running 3x CPU cores, 2.5x memory, SSDs, etc).  As noted in Learning #2 above, learning that that an in-place upgrade of the cluster with higher SKU was not possible was a big lesson for us.  As a result, we had to stand up an entirely new cluster with the new nodes – and, since all our data was in-memory, this meant that we needed to perform a data migration from the existing cluster to the new cluster.

 

This type of data migration from one cluster to another cluster was not something we had ever practiced before, and it required us to invest in many data migration drills. As we ran these in production, we also learned yet another valuable lesson:  Any data move from one source to another required efficient and intelligent data integrity checks that could be completed in a matter of seconds.

 

The second major change (as mentioned in the three insights above) was implementing persistence for our in-memory services.  This allowed us to rebuild our state in just a matter of a few seconds. Our analyses showed increasing amounts of time for rebuilds that were causing significant availability losses due to the state transfer using a full copy from primary to the secondary replicas. We also had a great collaboration (and very promising results) with Azure Service Fabric in implementing persistence with Reliable Collections.

 

The next major change was moving away from our home-grown pub/sub architecture which was showing signs of end-of-life.  We recognized that it was time to re-evaluate our assumptions about usage, data/traffic patterns, and designs so that we could assess whether the design was still valid and scalable for the changes we were seeing.  We found that, in the meantime, Azure had evolved significantly and now offered a much better solution that fit beyond what we could create.

 

The changes noted above represented what was essentially a re-architecture of Intune services, and this was a major project to undertake.  Ultimately, it would take a year to complete.  But, fortunately, this news did not catch us off guard; we had very early warning signs from the capacity models and the orange line thresholds which we had set earlier. These early warning signs gave us sufficient time to take proactive steps for scaling up, out, and for the re-architecture.

 

The results of the re-architecture were extremely impressive.  See below for Figures 2, 3, and 4 which summarize the results. Figure 2 shows that the P99 CPU usage dropped by more than 50%, Figure 3 shows that the P99 latency reduced by 65%, and Figure 4 shows that the rebuild performance for state transfer of 2.4M objects went from 10 minutes to 20 seconds.

 

 

Figure 2: P99 CPU Usage After Intune Services’ Re-Architecture

2.png

 

Figure 3: P99 Latency After Intune Services’ Re-Architecture

3.jpg

 

 

Figure 4: P99 Rebuild Times After Intune Services’ Re-Architecture

4.png

 

Learnings

Through this process, we learned 3 critical things that are applicable to any large-scale cloud service:

  1. Every data move that copies or moves data from one location to another must have data integrity checks to make sure that the copied data is consistent with the source data.
    • This is a critical part of ensuring that there is no data loss and this has to be done before switching over and making the new data as active and/or authoritative.
    • There are a variety of efficient/intelligent ways to achieve this without requiring an excessive amount of time or memory – but this is the topic of another blog. :smiling_face_with_smiling_eyes: 
  1. It is a very bad idea to invent your own database (No-SQL or SQL, etc), unless you are already in the database business.
    • Instead, leverage the infrastructures and solutions that have already been proven to work, and have been built by teams whose purpose is to build and maintain the databases.
    • If you do attempt to do this yourself, you will inevitably encounter the same problems, waste precious time re-inventing the solutions, and then spend even more time maintaining your database instead of spending the time with the business logic. 
  1. Finally, the experiences detailed above taught us that it’s far better to over-provision than over-optimize.
    • In our case, because we set our orange lines thresholds low, it gave us sufficient time to react and re-architect. This mean, of course, that we were over provisioned, but it was a huge benefit to our customers.

 

Conclusion

After the rollout of our re-architecture, the capacity charts immediately showed a significant improvement. The reliability of our capacity models, as well as the ability to scale up and out, gave us enough confidence to increase the thresholds for orange and red lines to higher numbers. Today, most of our clusters are under the orange line, and we continue to constantly evaluate and examine the capacity planning models – and we also use them to load balance our clusters globally.

 

By doing these things we were ready and able to evolve our tools and optimize our resources.  This, in turn, allowed us to scale better, improve SLAs, and increase the agility of our engineering teams.  I’ll cover this in Part 3.

20 Nov 09:57

How to Acquire Your First 100 Customers

by itsbenlee
20 Nov 09:57

Automatic Differentiation in Machine Learning: A Survey [pdf]

by sonabinu
20 Nov 09:56

The Graphic Art of Incredibles 2

by yarapavan
20 Nov 09:54

US-Regierung: Ivanka Trump soll privates Mail-Konto dienstlich genutzt haben

by ZEIT ONLINE: Ausland -
Die Tochter und Beraterin des US-Präsidenten kommunizierte offenbar dienstlich über einen privaten Server. Das belegen Veröffentlichungen einer NGO.
20 Nov 09:48

Cloud-Computing im Zeitalter von DSGVO und Cloud-Act

Der US-Cloud-Act erleichtert US-Behörden den Zugriff auf von US-Unternehmen im Ausland verarbeitete Daten. Die Herausgabe kann gegen die DSGVO verstoßen. Was müssen Unternehmen künftig beachten?

Der US-Cloud-Act Der „Clarifying Lawful Overseas Use of Data Act“ (Cloud-Act) hat nicht zwingend etwas mit Cloud-Computing zu tun, kann es aber betreffen. Das Gesetz stellt klar, dass ein Anbieter elektronischer Kommunikations- oder Remote-Computing-Dienste, der dem Recht der USA untersteht (US-Anbieter), auf behördliche Anordnung hin in seiner Kontrolle, Besitz oder Obhut befindliche Inhalte ...

weiterlesen auf t3n.de
20 Nov 09:45

Wissenschaft: Die Neuvermessung der Welt

Das Kilogramm wird abgeschafft, beinahe. Das System der Maße für Zeit, Länge, Masse, Stromstärke, Temperatur, Stoffmenge und Leuchtkraft wird auf eine neue Basis gestellt, die ganz ohne das Urkilogramm auskommt. Golem.de erklärt, was sich ändert und warum. Von Frank Wunderlich-Pfeiffer (Wissenschaft, Internet)
20 Nov 09:41

Italy’s olive crisis intensifies as deadly tree disease spreads

by paganel
20 Nov 09:39

Telekom schließt bayerische Mobilfunklöcher

Nicht überall in Bayern ist Mobilfunk willkommen. Es wird aber lautstark über Funklöcher geschimpft.Die Telekom setzt ihren Teil des verabredeten Mobilfunkpaktes in Bayern um und baut. Vor Ort ist das nicht so einfach.