Deutschland auf der Geisterbahn der Angst

Print Friendly, PDF & Email

Die Angst war schon immer die wichtigste Methode der Steuerung eines Volkes in die von den Herrschenden gewünschte Richtung. Zuständig für die Angstverbreitung und –pflege war in antiken Zeiten die Priesterschaft, die mit Göttern, aber auch Dämonen und Geistern – später mit Engeln – das Herrschaftssystem zu stabilisieren hatte. Insbesondere durch Opfer wurde das Volk dazu gebracht, die höheren Wesen gnädig zu stimmen. Die häufig erfolgende Bestrafung der Sünder äußerte sich in Katastrophen verschiedenster Art: Seuchen, Missernten, Sintfluten , Erdbeben oder auch das längere Ausbleiben von Regen und andere schmerzliche Ereignisse, die den Menschen ihre Machtlosigkeit gegen die Götter vor Augen führte.
Die christlichen Religionen hatten für diesen Zweck die Hölle eingeführt. Während die Evangelischen kaum Chancen haben, angesichts ihrer Sünden der Hölle zu entkommen, hat die katholische Kirche ein kluges System etabliert, mit dem sich die Sünder freikaufen können: Im Mittelalter buchstäblich mit Geld (der von Martin Luther bekämpfte Ablasshandel), heute mit dem Absolvieren bestimmter Rituale (Wallfahrten, Rosenkränze beten etc.).

Im Grunde hat sich auch in unseren angeblich aufgeklärten Zeiten nicht viel an dieser Methode der Kontrolle und Steuerung einer Bevölkerung geändert, denn die Benutzung von Angst zur Erreichung politischer Ziele war und ist unübertroffen wirksam. Die Priesterschaft vergangener Zeiten ist heute durch eine enge Arbeitsgemeinschaft von Regierenden und Medien ersetzt worden; die Götter haben zumindest in unserem Lande nicht mehr viel zu melden, aber die Dämonen sind geblieben. An die Stelle der Götter sind flexibel nutzbare Begriffswolken wie Umwelt, Klima und Natur getreten; seltener die Mutter Erde persönlich in Gestalt von Gaia.
Was aber im Vergleich zum Mittelalter sehr viel stärker in der Angstpolitik genutzt wird, ist der Ablasshandel.

weiterlesen

Verteilung von Jodtabletten: Eine mit Risiken verbundene behördliche Anordnung

Print Friendly, PDF & Email

Der Bonner General-Anzeiger berichtete am 1. September 2017 über die beginnende Verteilung von Jodtabletten in der Stadt und der Städteregion Aachen sowie in den benachbarten Kreisen Düren, Euskirchen und Heinsberg. Die Verteilung geschehe aus Sorge vor einem möglichen Störfall im belgischen Kernkraftwerk Tihange.

Die Ausgabe der Tabletten erfolgt auf Antrag über die Online-Portale der Verwaltung. Bei Freigabe durch die Verwaltung können Bezugsscheine ausgedruckt und bei Apotheken eingelöst werden. Schon der eindringliche Hinweis von Verwaltung und Apotheken, dass die Ausgabe der Tabletten vorsorglich geschehe und diese erst nach ausdrücklicher behördlicher Aufforderung eingenommen werden dürfen, belegt die mit der Einnahme unter Umständen verbundenen Risiken.

Die Verteilung von Jodtabletten ist in dieser Form in Deutschland einmalig. Zwar sind Behörden verpflichtet, für jede Art gefährlicher Anlagen Katastrophenschutzpläne zu entwickeln und in diesem Zusammenhang auch einen Vorrat an Jodtabletten anzulegen. Eine direkte Verteilung von Jodtabletten an die Bevölkerung hat bisher an keinem Kernkraftwerksstandort stattgefunden. Bereits die von Aachen eingereichte Klage gegen den Betrieb des Kernkraftwerks von Tihange und nunmehr auch die Verteilungsaktion sind dazu angetan, Unsicherheit bis hin zu Ängsten in der Bevölkerung auszulösen. Dem gegenüber kam die belgische Aufsichtsbehörde nach umfangreichen Untersuchungen mit verfeinerten Messmethoden und Hinzuziehung nationaler und internationaler Expertenkommissionen zu dem Schluss, dass die im Stahl des Reaktordruckbehälters festgestellten Wasserstoffeinschlüsse keine Gefahr für den sicheren Betrieb der Anlagen darstellten. Sie seien fertigungsbedingt entstanden und nicht während des Betriebs – etwa infolge Strahlungseinwirkung. Gleichwohl ziehen Gemeinden im Raum Aachen gegen den Betrieb zu Felde. Dass die Jodtablettenverteilung durchaus ambivalent beurteilt werden kann, wird nachfolgend dargelegt.

weiterlesen

Wenn Wissenschaft unglaubwürdig wird

Print Friendly, PDF & Email

 Von Michael Guillen
(Originaltitel: Has Science Lost Its Way?)

Es gab viele leidenschaftliche politische Reden am sogenannten Marsch für die Wissenschaft am Sonnabend. (Anm.: 22. April 2017 in Washington und weiteren Städten; Thema: Klimapolitik der Trump-Regierung). Bedauerlicherweise hörte ich nichts von den tatsächlich ernsten Problemen, die die Wissenschaft heutzutage plagen.
Die einzige und zugleich größte Bedrohung für die Wissenschaft kommt heute aus ihren eigenen Reihen. Im vergangenen Jahr veröffentlichte Nature, das renommierte internationale Wissenschafts-Journal eine Studie, die enthüllte: „Mehr als 70% der Forscher haben die Experimente anderer Wissenschaftler wiederholt und konnten deren Resultate nicht reproduzieren. Und über die Hälfte konnten nicht einmal ihre eigenen Ergebnisse reproduzieren.“

Das Reproduzieren von Experimenten ist für die Glaubwürdigkeit der Wissenschaft das Gleiche wie die Bestätigung finanzieller Aussagen für die Kreditwürdigkeit eines Unternehmens. Die geradezu astronomisch hohe Fehlerquote bei den Versuchen, Forschungsergebnisse zu bestätigen, die in hoch respektierten, von Gutachtern unterstützten („peer-reviewed“) Fachzeitschriften veröffentlicht worden sind, legt es nahe, das etwas sehr falsch daran ist, wie Wissenschaft praktiziert wird. Zweiundfünfzig Prozent von den 1.576 der für diese Studie überprüften Forscher bezeichneten das als „eine bedeutende Krise.“

weiterlesen

Die seltsame Liebe der Politiker zum Elektroauto

Print Friendly, PDF & Email

Wie es anfing
Die Geschichte des Elektroautos ist so alt wie das Auto selbst. Direkt nachdem man erkannt hatte, dass ein Vehikel mit einem von Pferden unabhängigen Antrieb ein faszinierendes Straßentransportmittel ist, begann der Wettstreit um die beste Antriebstechnik. Benzinmotoren, Dampfmaschinen und Elektromotoren wurden eingesetzt.
1881 präsentierte der Franzose Gustave Trouvè auf einer Messe in Paris ein dreirädriges Fahrzeug mit Elektromotor und – Blei-Akkumulator. Es gilt heute als das erste Elektroauto. Immerhin waren das 81 Jahre nach der Erfindung der elektrischen Batterie durch den Italiener Allessandro Volta. Trouvès Exponat war der Start für zahlreiche weitere Entwicklungen; beispielsweise das erste vierrädrige Elektroauto, der „Flocken“ von dem Coburger Fabrikanten Andreas Flocken oder der erste Porsche,  ein „Egger-Lohner C2“ mit einem 5 PS E-Motor. Erst 1886 entwickelte Gottlieb Daimler den ersten Benz-Patent-Motorwagen, der mit einem Verbrennungsmotor angetrieben wurde.
Auch das Dampfauto spielte in dieser Anfangszeit des Automobils eine bedeutende Rolle, was wohl vor allem am mächtigen Drehmoment lag, das Dampfmaschinen aufweisen und was ein zügiges Fahren ermöglichte.
Anfang des 20. Jahrhunderts gab es in den USA einen Anteil an dampfbetriebenen Fahrzeugen von 40%, der Anteil der Elektroautos lag mit 34.000 Exemplaren bei 38% und die Benziner hatten 22%. Alle diese Konstruktionen litten unter Nachteilen. Das Drehmoment der Dampfmaschine war zwar ein auf kürzerer Strecke unschlagbarer Vorteil; leider aber war der Wasserverbrauch sehr hoch und das häufige Nachtanken war doch ein erheblicher Nachteil. Auch das Aufheizen des Dampfkessels bis zum Erreichen des nötigen Drucks kostete Zeit. Das elektrisch angetriebene Auto litt unter einer zu schwachen Batterie und damit zu geringer Reichweite;  Überlandfahrten waren nicht möglich.  Sein Einsatz erfolgte deshalb ausschließlich in der Stadt. Genau wie noch heute.

weiterlesen

Der Diesel im Kreuzfeuer der Kritik

Print Friendly, PDF & Email

Der Kraftstoff Diesel ist zurzeit Dauerthema in den Medien. Die kontroversen Diskussionen über seine Umweltverträglichkeit haben unsere Mitbürger mehr und mehr verunsichert. Das liegt daran, dass eine sachliche, fachliche und wissenschaftliche Beurteilung durch eine emotionale, einseitig orientierte, interessengebundene und medienwirksame Berichterstattung erschwert wird. Nicht unschuldig daran ist die Automobilindustrie selbst, denn sie hat es vermieden und verschwiegen, den politischen Akteuren klar zu sagen, wo die technische Machbarkeit mit politischen Forderungen zur Abgasreinigung zu bezahlbaren Kosten nicht mehr in Einklang zu bringen ist. Stattdessen, aus Angst vor Marktverlusten und der Konkurrenz zwischen den führenden Automobilherstellern, wurde versucht, mit manipulierter Software die Grenzwertvorgaben auszutricksen. Zu glauben, dass diese Manipulation geheim gehalten werden kann, grenzt schon an Naivität.

Nachdem VW als eine der größten Weltfirmen auffiel, kamen natürlich die Konkurrenten auch auf den Prüfstand und, wie zu erwarten war, wurde man fündig und somit zu einem Fall für die Justiz.

Im folgenden wird hervorgehoben welche Unterschiede zwischen leistungsvergleichbaren Benzin- und Dieselverbrennungsmotoren bestehen.

Dieselkraftfahrzeuge sind beim Erwerb deutlich teurer (8-10 %) als Benziner. Die Treibstoffkosten für Benzin sind durchschnittlich 30 % teurer als für Diesel. Die steuerlichen Abgaben beim Benzin betragen ca. 59 %, beim Diesel ca. 51 % der Spritkosten. Diese Vergünstigung wurde damit begründet, dass Dieselfahrzeuge umweltverträglicher seien. Doch durch die Hintertür holt sich der Fiskus diese Vergünstigung durch eine um rund 70 % höhere Kfz-Steuer für Dieselfahrzeuge wieder herein. Somit ist das Argument einer Bevorzugung der Dieselfahrzeughalter nicht haltbar. Rechnerisch ergab der Wirtschaftlichkeitsvergleich, dass ein Dieselfahrzeug erst bei einer jährlichen Kilometerleistung von mindestens 20.000 Kilometern einen Gleichstand erreicht. Nur für Vielfahrer, die beruflich große Strecken fahren müssen, ist ein Dieselfahrzeug die wirtschaftlichere Variante. Die oben erwähnte Umweltverträglichkeit wurde mit der Langlebigkeit der Dieselfahrzeuge und dem geringeren Spritverbrauch (rund 40 % weniger und geringere CO2-Emissionen) begründet.

Mit der politischen Zielsetzung zur Luftreinhaltung, Verbrennungsmaschinen in Zukunft durch Elektrofahrzeuge zu ersetzen, wurde die Umweltverträglichkeit der konventionellen Antriebe verschärft und neu bewertet.

Neben CO2 wird bei Dieselfahrzeugen, durch höhere Verbrennungstemperaturen bedingt, eine erheblich höhere Menge an sauerstoffhaltigen Stickstoffverbindungen (NOx) und Rußpartikel an die Umwelt abgegeben. Letztere werden unter dem Begriff Feinstaub mit einbezogen, was von der Partikelgröße und -zusammensetzung definitiv nicht korrekt ist. Feinstaub entsteht sowohl aus Reifen-, Bremsen-und Straßenbelagsabrieb, als auch aus Verbrennungsvorgängen der Fahrzeugmotoren. Über die Anteile aus Abrieb und Verbrennung gibt es keine verlässliche Angaben, sondern mehr oder weniger Abschätzungen, die eine große Streubreite haben. Der Feinstaubanteil aus Reifen -, Bremsen- und Straßenbelagsabrieb wird auch bei einer Umstellung auf Elektroantriebe infolge wachsender Kraftfahrzeugdichte weiter zunehmen.

Ein neues Feindbild NOx soll die Umweltverträglichkeit in Frage stellen. Sauerstoffhaltige Stickstoffverbindungen sind für die Vegetation eine Nährstoffquelle, die, wie man sieht zu einem üppigen Pflanzenwachstum an Autobahnrandstreifen und zu keinen Entwicklungs-störungen führt. Zu einer Lungenbelastung mit erkennbaren Schädigungen durch salpetrige Säure kommt es erst, wenn die Konzentration von NOx im 2-stelligen ppm-Bereich (über 1000 Mikrogramm pro Kubikmeter Luft) und nicht in Größenordnungen unter 100 Mikrogramm liegt.

Auch bei einem Arbeitsplatzgrenzwert für NO2 von 950 Mikrogramm pro Kubikmeter Luft über den Zeitraum einer 40 Stundenarbeitswoche konnte keine gesundheitlich erkennbare

Beeinträchtigung nachgewiesen werden. Dennoch einigte man sich mit der europäischen Kommission auf einen 1-Stunden-Grenzwert für NO2 von 200 Mikrogramm pro Kubikmeter Luft, bzw. auf einen Jahresmittelwert für Verkehr von 40 Mikrogramm pro Kubikmeter Luft, das ist lediglich 1/5 der maximalen Arbeitsplatzkonzentration. Dieser weit unter einer Risikoschwelle liegende Grenzwert rechtfertigt kein Dieselfahrverbot. Überdies werden die neuesten Dieselfahrzeuge bereits mit einer technisch verbesserten und wirtschaftlich vertretbaren Abgasreinigung ausgerüstet. Mit dem „AdBlue-Verfahren“ auf Harnstoffbasis mit SCR-Kat (Twintec-System) wird eine Stickoxidreduktion um 90% erreicht, die sogar über die Vorgaben des Euro 6-Grenzwertes hinausgeht. Das Additiv AdBlue wird mit 5-7% dem Kraftstoff zugefügt, entsprechend 1 Liter auf 20 Liter Kraftstoff (Reichweite ca. 400 km) zu einem Preis von rund 1 Euro.

Rußemissionen werden bereits durch eine geregelte Kraftstoffeinspritzung im Verbrennungsraum und durch Zuführung von katalytisch wirksamen Additiven oder durch Einspritzung in das Abgassystem mit dort erfolgender Oxidation vermieden. Mit der neuen Software soll lediglich die Kraftstoffeinspritzung und Verbrennungstemperatur weiter optimiert werden.

Dieselneufahrzeuge müssen bereits die Euro-6-Grenzwerte einhalten. Altfahrzeuge werden erfahrungsgemäß schnell von der Straße verschwinden, wenn eine Nachrüstungspflicht besteht.

Die Verteufelung der Dieselfahrzeuge ist ungerechtfertigt und entbehrt jeglicher Sachlichkeit sowie wissenschaftlicher und technischer Argumentation.

Deswegen besteht dringend Aufklärungsbedarf mit einer Stellungnahme seitens der Automobil-industrie und öffentlichen Medien über den Sachstand der Pro-und Contra Argumente.

Die sich nun über Monate hinziehende Verschleierungstaktik deutet eher daraufhin, dass die Sorge um die Volksgesundheit nur ein vorgeschobenes Argument ist und dass es in Wirklichkeit nur darum geht, politischen Zielen, wie das Vorantreiben der Elektromobilität, den Weg zu bereiten.

Journal Kabinett 3/2017, Seite 30-31

Tschernobyl Reaktorhavarie Eine Nachlese

Print Friendly, PDF & Email

Als Sachverständiger im Fach Radioagronomie wurde ich im neu geschaffenen Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit unter Minister Walter Wallmann im Mai 1986 beauftragt, die Auswirkung der durch die Reaktorhavarie freigesetzten Radioaktivität auf Boden, Pflanze und Nahrungskette zu beurteilen. Die Bewertung basierte auf Meßdaten der Luftüberwachung und der vor Ort gemessenen Aktivität und Isotopenanalyse, ca. 1 Woche nach dem GAU (Größter anzunehmender Unfall).

Der havarierte Reaktor Block 4, 1984 in Betrieb genommen, ist ein RBMK-Reaktor, ein Hochleistungs-Siedewasser-Druckröhrenreaktor, wassergekühlt und graphitmoderiert, eine Weiterentwicklung der Serie aus den1950-er Jahren. Sie werden zur Stromerzeugung und für militärische Zwecke (Plutoniumerzeugung) genutzt. Sie haben keine druckfeste und gasdichte Hülle und entsprechen nicht den Sicherheitsbestimmungen internationaler Standards kerntechnischer Anlagen.

Am 25.04.1986, gegen 1.00 Uhr kam es infolge von unvorhersehbaren Verkettungen durch menschliche Fehlentscheidungen und technische Probleme zu einem GAU in dem sowjetischen Kernreaktor Block 4 in Tschernobyl. Dieser ereignete sich während eines Testbetriebs, bei dem geprüft werden sollte, ob bei einem Stromausfall und der damit verbundenen Abschaltung des Reaktors die mechanische Energie der Turbinenrotoren bis zum Anlaufen der dieselbetriebenen Notstromaggregate übergangsweise zur Strombereitstellung für den Steuerbetrieb des Reaktors ausreicht. Menschliche Bedienungsfehler und Unkenntnis der im kritischen Bereich agierenden Betriebsmanschaft führten zu dieser Katastrophe. Bereits 1985 wurde dieser Test bei Block 3 durchgeführt und durch das Abfallen der Spannung am Generator abgebrochen. Dieser Test sollte bei Block 4 im April 1986 wiederholt werden, der jedoch mit verheerenden Folgen in einem GAU endete. Vermutungen, dass bei diesem Eingriff vorrangig militärische Optionen im Vordergrund standen, kann weitgehend ausgeschlossen werden. Ein Außerkraftsetzen von Notabschaltungsmaßnahmen ist eigentlich nur im damaligen Machtbereich der Sowjetunion möglich gewesen und zeigt die Manipulationsmöglichkeit in kerntechnischen Bereichen. Deswegen ist es unverhandelbar, nach eigenem Ermessen Sicherheitsstandards festzulegen, die nicht international akzeptiert werden können. Die IAEA (Internationale Atomenergiebehörde) in Wien hat Richtlinien erarbeitet, die für alle Betreiber kerntechnischer Anlagen verbindlich sind. Die Auffassung, dass durch menschliche Fehlbedienung der katastrophale Unfall ausgelöst wurde, wird nicht angezweifelt und damit begründet, dass durch das zu späte und schnelle Einfahren der Abschalt-und Regelstäbe der unkontrollierbare Leistungszuwachs ausgelöst wurde.

Wieviel radioaktives Material in den Reaktortrümmern verblieb, kann nur näherungsweise geschätzt werden und ist mit rund 190 Tonnen Kernbrennstoff zu veranschlagen. Die gasförmigen radioaktiven Spaltprodukte (Krypton und Xenon), leichtflüchtiges Jod und Cäsium wurden größtenteils in die Atmoshäre freigesetzt und wurden entsprechend den meteorologischen Verhältnissen weiträumig verbreitet. Erst Tage später meldeten norwegische Luftüberwachungseinrichtungen einen unerklärbaren Anstieg der o.a. Radioisotope. Warum diese Meldung erst so spät in die Öffentlichkeit gelangte, ist besorgniserregend, denn die amerikanischen Aufklärungssatelliten hatten das Szenario von Anfang an dokumentiert. Diese Nachricht schlug ein wie eine Bombe. Das aus dem Stegreif entstandene Ministerium für Umwelt, Naturschutz und Reaktorsicherheit unter Leitung eines Nichtfachmanns Walter Wallmann war auf eine deartige Herausforderung nicht vorbereitet. Es kam daher zu Kompetenzproblemen zwischen BMU und Innenministerium, geleitet von Minister Friedrich Zimmermann. Auch er war kein Fachmann dieser Problematik und versuchte unter dem Druck der damals sich etablierenden Antiatomkraftbewegung Gefahren und mögliche Schäden durch überstürzte Maßnahmen abzuwenden. Meine Aufgabe war es, die durch radioaktiven Niederschlag und Immisionen entstandene Kontamination auf Pflanzen, Boden und Nahrungskette zu bewerten. Bereits in den 50-er Jahren wurde diese Thematik ausführlich behandelt und aufgrund der Erfahrungen aus den beiden Atombombenabwürfen auf Hiroshima und Nagasaki ausführlich dokumentiert, so dass eine Abschätzung der Strahlenbelastung ohne große wissenschaftliche und technische Untersuchung möglich war. Die Beaufschlagung mit Cäsium war zwar deutlich erhöht, dennoch bestand bei den sehr niedrig vorgegebenen Grenzwerten, weit unter einer möglichen gesundheitlichen Beeinträchtigung, keine akute Gesundheitsgefährdung. Pilze und Wildtiere im Süden Deutschlands waren davon am stärksten betroffen, jedoch würde erst bei täglichem Verzehr in kg-Mengen der Strahlendosisgrenzwert überschritten. Die natürliche Strahlenexposition in Deutschland, insbesondere in ehemals vulkanischen Gebieten, Mineralwasser aus Tiefengestein, Bims als Baustoff, Langstreckenflüge und vieles mehr haben größere Strahlenwirkung als die als„belastet“ deklarierten Lebensmittel, die damals im großen Stil vernichtet wurden.

Die Notstandsgesetzgebung war der Rahmen aller wissenschaftlicher Untersuchungen und enthielt auch alle Anweisungen zum Verhalten staatlicher Organe. Durch eigenmächtiges und inkompetentes Verhalten der beiden Ministerien kam es zu einer völligen Verunsicherung nachgeschalteter Dienststellen und der Bevölkerung, die bis in die heutige Zeit wirkt und Grund für eine überzogene skeptische Haltung bezüglich wissenschaftlicher Berichterstattung ist.

Die gesundheitlichen Folgen der Tschernobyl-Reaktorhavarie wurden und werden auch heute kontrovers diskutiert und bewertet. Bei 134 Personen der Betriebsmanschaft und Liquidatoren wurde eine akute Strahlenerkrankung diagnostiziert, an der 28 verstarben. In der Bevölkerung der kontaminierten Gebiete konnte dennoch eine Erhöhung der Leukämie-, Schilddrüsen- und Brustkrebsrate nicht statistisch gesichert nachgewiesen werden. Auch andere Erkrankungen, konnten nicht eindeutig auf eine Strahlenexposition zurückgeführt werden. Das liegt möglicherweise auch daran, dass die Gesundheitsvorsorge und die Lebensbedingungen sich durch intensive medizinische Betreuung nach dem Unfall erheblich verbessert haben. Die 28 Todesfälle sind darauf zurückzuführen, dass für die sofort eingesetzte Notmannschaft und später eingesetzten Liquidatoren während ihres Einsatzes unzureichende Schutzmaßnahmen getroffen wurden. Bei der Reaktorhavarie durch den Tsunami in Fukushima hingegen, wurde das Reaktorgelände rechtzeitig verlassen und nach Rückgang der Wassermassen unter hohen Schutzmaßnahmen mit Sanierungsarbeiten begonnen ohne dass ein Todesfall aktenkundig wurde.

Deutschland 2017 – Auf dem Weg in die Große Tranformation

Print Friendly, PDF & Email

In der Vorbereitung auf die Bundestagswahl am 24.09.17 haben nun alle Parteien ihre Wahlziele festgelegt. Darin nimmt die Umweltpolitik einen wichtigen Platz ein. Alle aktuell im Bundestag vertretenen Parteien und die FDP bekennen sich zu den Beschlüssen der UN Klimakonferenz COP21 vom Dezember 2015 in Paris und wollen die beschlossenen sogenannten Klimaschutzmaßnahmen im nächsten Bundestag schwerpunktmäßig vorantreiben. Nur die AfD lehnt jegliche Projekte und gesetzliche Regelungen zur Erreichung der in Paris formulierten Ziele zum sogenannten „Klimaschutz“ ab.

Konkret sind diese Ziele im „Paris Agreement“ der 195 Mitgliedstaaten der Klimarahmenkonvention der UN (UNFCCC)1 als Nachfolge des Kyotoprotokolls niedergelegt. Das Übereinkommen sieht vor, dass die als Faktum unterstellte vom Menschen verursachte Klimaerwärmung bis Ende des Jahrhunderts auf unter 2° gegenüber vorindustriellen Werten begrenzt werden soll. Bis Juni 2017 wurde das Übereinkommen von allen beteiligten Staaten außer Syrien, Nicaragua und den USA anerkannt. Um China, als weltweit größter CO2-Emittent nicht zu verprellen, wird es, sowohl im Kyoto-Protokoll, als auch im Abkommen von Paris von allen Verpflichtungen bis 2030 freigestellt. Alle anderen Staaten sind aufgefordert, Pläne zu erarbeiten, welche Maßnahmen vorrangig getroffen werden sollen. Für die deutsche Bundesrepublik wurde dazu der „Klimaschutzplan 2050“ erstellt, den umzusetzen sich alle o.a. Parteien außer der AfD verpflichten. Dieser Plan sieht vor, den Ausstoß von “Treibhausgasen“ bis 2050 um 90% zu reduzieren mit einem Zwischenziel von 40% bis 2020! Da hat unsere im Herbst zu wählende Regierung eine hohe Messlatte zu überwinden.

Auf der COP21 wurde auch das im „Green Climate Fund“ GCF festgelegte Vorhaben bekräftigt, nach dem die im UNFCCC beteiligten Industrieländer Geld in einen Fonds einzahlen, aus dem bis 2020 jährlich 100 Mrd. US$ bereitgestellt werden sollen, um ärmeren Ländern zu helfen, die durch den Klimawandel am stärksten betroffen sind. Mit diesem „Ablass“ können sich die Industrieländer als die „Verschulder“ des Klimawandels gewissermaßen von ihren Sünden reinwaschen. Dieser vom UNFCCC zu verwaltene Fund hat seinen Sitz in Incheon in Korea. Im Detail ist es noch unübersichtlich, wo diese Mittel im Einzelnen herkommen sollen. Deutschland spielt im internationalen „Klimageschäft“ auf jeden Fall eine Schlüsselrolle. Die im Haushalt mit Bezug auf Klimaschutz ausgegebenen Gelder stammen aus verschiedenen Titeln zu denen auch Entwicklungshilfe und wirtschaftliche Zusammenarbeit gehören. Insgesamt waren aber laut Wikipedia in diesem Zusammenhang im Jahr 2010 bereits 1,27 Mrd. EUR im Bundeshaushalt für klimarelevante Ausgaben veranschlagt! Dabei ist ein besonders irritierendes Faktum, dass die ins unermessliche steigenden finanziellen Belastungen und damit verbundenen Beschränkungen unserer Freiheit beschlossen werden ohne dass man irgendwo erkennt, dass die damit verbundenen Ziele immer wieder in Frage gestellt und auf ihre Relevanz kontrolliert werden, wie es etwa in den Naturwissenschaften üblich ist!

weiterlesen

Endlager: Finnland und Schweden zeigen, wie es geht

Print Friendly, PDF & Email

Die sichere Endlagerung radioaktiver Abfälle ist eine technisch lösbare Aufgabe. Man muss die Endlagerung nur wollen. In Deutschland ist der Bund für Planung, Errichtung und Betrieb von Endlager rechtlich verantwortlich. Seit fast fünfzig Jahren ist der Bund mit dieser Aufgabe befasst, hat aber bis zum heutigen Zeitpunkt kein Endlager für hochradioaktive Abfälle vorzuweisen. Schlimmer noch, seine durchaus aussichtsreiche Erkundung des Salzstockes bei Gorleben lässt er ruhen (oder gibt er sie endgültig auf?) und beginnt wieder bei null, nämlich mit der, wie es heißt, ergebnisoffenen Standortsuche, die laut Gesetz bis 2031 erfolgt sein soll. Es gibt berechtigte Zweifel, dass die Endlagerung hochradioaktiver Abfälle (z.B. abgebrannte Brennelemente) noch in diesem Jahrhundert realisiert werden kann. Politisch hat sich der Bund immer wieder Fallstricke in den Weg gelegt. Durch das Standortauswahlgesetz haben die Möglichkeiten der Behinderung noch zugenommen.

Für das Endlager Konrad für mittel- und schwachradioaktive Abfälle, ein ehemaliges Erzbergwerk in Salzgitter, kann trotz eines über dreißig jährigen Planungs-, Genehmigungs- und Errichtungsverfahrens noch kein verlässlicher Termin für die Inbetriebnahme angegeben werden.

Finnland und Schweden machen es uns vor, wie man die Endlageraufgabe zeitgerecht angeht und löst.

weiterlesen

Erneuerbare-Energien-Gesetz: Mehr Fluch als Segen

Print Friendly, PDF & Email

Die alternativen Energiequellen, Wind und Sonne, nach den technischen Möglichkeiten, nach den infrastrukturellen Voraussetzungen mit Verstand und Augenmaß eingesetzt, hätten den bestehenden Energiemix aus Kohle, Kernenergie, Gas und Öl sinnvoll ergänzen können.  So aber waren Fachunkundige am Werk, die die Folgen ihres Tuns unterschätzt haben und sich dabei von taktischen, populistischen oder ideologischen Motiven leiten ließen. Keine der drei zentral geforderten Grundsätze Sicherheit, Wirtschaftlichkeit und Umweltverträglichkeit der Stromversorgung wurden eingehalten. Im Gegenteil: Die Netzstabilität ist erheblich geschwächt, der Strompreis stark angestiegen und die CO2-Reduktionsziele sind bislang verfehlt. Die Bundesregierung hat sich mit dem EEG und dem Kernenergieausstieg in eine verhängnisvolle energiepolitische Position gebracht, aus der sie ohne Gesichtsverlust nicht mehr herauskommen wird. Vergleichbar Goethes Zauberlehrling, der die Geister rief, sie aber nicht mehr loswurde und mit einer vermeintlichen Korrektur seines Problems das Problem nur noch verschlimmerte.

weiterlesen

Der Todfeind der Regierung: Die Physik

Print Friendly, PDF & Email

In der DDR gab es den Witz: „Wer sind die vier Todfeinde des Sozialismus?….. Frühling, Sommer, Herbst und Winter.“  Seit der friedlichen Revolution in diesem Land, bei der sich die Bevölkerung von der Partei- und Stasidiktatur befreite, sind diese Todfeinde arbeitslos geworden – aber sie kommen gerade in der ehemaligen „BRD“ wieder. Den Vortritt hat der Winter, der mit der Dunkelflaute zusammenarbeitet. Es sind aber leider wieder neue Todfeinde hinzugekommen, die ebenso wie die alten schon immer da waren – nur eben früher nicht als Feinde, sondern als eherne Grundpfeiler eines jeden Industrielandes. Es ist die Physik mit ihren Gesetzen.

Seit unsere Regierung beschlossen hat, anstelle der bisher üblichen Energiepolitik eine Energiewende zu veranstalten, befindet sie sich im Kampf mit den neuen Todfeinden, die daran Schuld sind, das buchstäblich alles, was man sich dazu an angeblich neuen Energiequellen ausgedacht hat, von der mitleidlosen Physik nicht nur behindert, sondern geradezu sabotiert wird.
Eine Reihe von Beispielen soll das veranschaulichen.

Erneuerbare Energien. So heißen Gesetze, so steht es als Titel in Regierungsberichten, so haben es folgsam die Medien übernommen. Aber erneuerbare Energien gibt es nicht. Was es aber gibt, das ist der 1. Hauptsatz der Thermodynamik. auch als Gesetz von der Erhaltung der Energie bekannt. Energie kann danach immer nur umgewandelt werden, wobei eine höhere Energieform (elektrische, mechanische, potenzielle Energie) stets nur in eine niedrigere Energieform umgewandelt werden kann, was mit Verlusten – vor allem in Form von Niedertemperaturwärme – verbunden ist. In solchen Umwandlungsprozessen bleibt die Energiemenge gleich; nichts daran ist „erneuerbar“.
Es ist bezeichnend, dass dieser mit der Energieerzeugung und –Versorgung befasste Politikbereich von vornherein eine physikalisch falsche Bezeichnung trägt. Als wollten die Verantwortlichen den Bürgern mitteilen: „Bitte kommt uns nicht mit der Physik – die gilt bei uns nicht.“

weiterlesen