Deutschland auf der Geisterbahn der Angst

Die Angst war schon immer die wichtigste Methode der Steuerung eines Volkes in die von den Herrschenden gewünschte Richtung. Zuständig für die Angstverbreitung und –pflege war in antiken Zeiten die Priesterschaft, die mit Göttern, aber auch Dämonen und Geistern – später mit Engeln – das Herrschaftssystem zu stabilisieren hatte. Insbesondere durch Opfer wurde das Volk dazu gebracht, die höheren Wesen gnädig zu stimmen. Die häufig erfolgende Bestrafung der Sünder äußerte sich in Katastrophen verschiedenster Art: Seuchen, Missernten, Sintfluten , Erdbeben oder auch das längere Ausbleiben von Regen und andere schmerzliche Ereignisse, die den Menschen ihre Machtlosigkeit gegen die Götter vor Augen führte.
Die christlichen Religionen hatten für diesen Zweck die Hölle eingeführt. Während die Evangelischen kaum Chancen haben, angesichts ihrer Sünden der Hölle zu entkommen, hat die katholische Kirche ein kluges System etabliert, mit dem sich die Sünder freikaufen können: Im Mittelalter buchstäblich mit Geld (der von Martin Luther bekämpfte Ablasshandel), heute mit dem Absolvieren bestimmter Rituale (Wallfahrten, Rosenkränze beten etc.).

Im Grunde hat sich auch in unseren angeblich aufgeklärten Zeiten nicht viel an dieser Methode der Kontrolle und Steuerung einer Bevölkerung geändert, denn die Benutzung von Angst zur Erreichung politischer Ziele war und ist unübertroffen wirksam. Die Priesterschaft vergangener Zeiten ist heute durch eine enge Arbeitsgemeinschaft von Regierenden und Medien ersetzt worden; die Götter haben zumindest in unserem Lande nicht mehr viel zu melden, aber die Dämonen sind geblieben. An die Stelle der Götter sind flexibel nutzbare Begriffswolken wie Umwelt, Klima und Natur getreten; seltener die Mutter Erde persönlich in Gestalt von Gaia.
Was aber im Vergleich zum Mittelalter sehr viel stärker in der Angstpolitik genutzt wird, ist der Ablasshandel.

weiterlesen

Die seltsame Liebe der Politiker zum Elektroauto

Wie es anfing
Die Geschichte des Elektroautos ist so alt wie das Auto selbst. Direkt nachdem man erkannt hatte, dass ein Vehikel mit einem von Pferden unabhängigen Antrieb ein faszinierendes Straßentransportmittel ist, begann der Wettstreit um die beste Antriebstechnik. Benzinmotoren, Dampfmaschinen und Elektromotoren wurden eingesetzt.
1881 präsentierte der Franzose Gustave Trouvè auf einer Messe in Paris ein dreirädriges Fahrzeug mit Elektromotor und – Blei-Akkumulator. Es gilt heute als das erste Elektroauto. Immerhin waren das 81 Jahre nach der Erfindung der elektrischen Batterie durch den Italiener Allessandro Volta. Trouvès Exponat war der Start für zahlreiche weitere Entwicklungen; beispielsweise das erste vierrädrige Elektroauto, der „Flocken“ von dem Coburger Fabrikanten Andreas Flocken oder der erste Porsche,  ein „Egger-Lohner C2“ mit einem 5 PS E-Motor. Erst 1886 entwickelte Gottlieb Daimler den ersten Benz-Patent-Motorwagen, der mit einem Verbrennungsmotor angetrieben wurde.
Auch das Dampfauto spielte in dieser Anfangszeit des Automobils eine bedeutende Rolle, was wohl vor allem am mächtigen Drehmoment lag, das Dampfmaschinen aufweisen und was ein zügiges Fahren ermöglichte.
Anfang des 20. Jahrhunderts gab es in den USA einen Anteil an dampfbetriebenen Fahrzeugen von 40%, der Anteil der Elektroautos lag mit 34.000 Exemplaren bei 38% und die Benziner hatten 22%. Alle diese Konstruktionen litten unter Nachteilen. Das Drehmoment der Dampfmaschine war zwar ein auf kürzerer Strecke unschlagbarer Vorteil; leider aber war der Wasserverbrauch sehr hoch und das häufige Nachtanken war doch ein erheblicher Nachteil. Auch das Aufheizen des Dampfkessels bis zum Erreichen des nötigen Drucks kostete Zeit. Das elektrisch angetriebene Auto litt unter einer zu schwachen Batterie und damit zu geringer Reichweite;  Überlandfahrten waren nicht möglich.  Sein Einsatz erfolgte deshalb ausschließlich in der Stadt. Genau wie noch heute.

weiterlesen

Tschernobyl Reaktorhavarie Eine Nachlese

Als Sachverständiger im Fach Radioagronomie wurde ich im neu geschaffenen Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit unter Minister Walter Wallmann im Mai 1986 beauftragt, die Auswirkung der durch die Reaktorhavarie freigesetzten Radioaktivität auf Boden, Pflanze und Nahrungskette zu beurteilen. Die Bewertung basierte auf Meßdaten der Luftüberwachung und der vor Ort gemessenen Aktivität und Isotopenanalyse, ca. 1 Woche nach dem GAU (Größter anzunehmender Unfall).

Der havarierte Reaktor Block 4, 1984 in Betrieb genommen, ist ein RBMK-Reaktor, ein Hochleistungs-Siedewasser-Druckröhrenreaktor, wassergekühlt und graphitmoderiert, eine Weiterentwicklung der Serie aus den1950-er Jahren. Sie werden zur Stromerzeugung und für militärische Zwecke (Plutoniumerzeugung) genutzt. Sie haben keine druckfeste und gasdichte Hülle und entsprechen nicht den Sicherheitsbestimmungen internationaler Standards kerntechnischer Anlagen.

Am 25.04.1986, gegen 1.00 Uhr kam es infolge von unvorhersehbaren Verkettungen durch menschliche Fehlentscheidungen und technische Probleme zu einem GAU in dem sowjetischen Kernreaktor Block 4 in Tschernobyl. Dieser ereignete sich während eines Testbetriebs, bei dem geprüft werden sollte, ob bei einem Stromausfall und der damit verbundenen Abschaltung des Reaktors die mechanische Energie der Turbinenrotoren bis zum Anlaufen der dieselbetriebenen Notstromaggregate übergangsweise zur Strombereitstellung für den Steuerbetrieb des Reaktors ausreicht. Menschliche Bedienungsfehler und Unkenntnis der im kritischen Bereich agierenden Betriebsmanschaft führten zu dieser Katastrophe. Bereits 1985 wurde dieser Test bei Block 3 durchgeführt und durch das Abfallen der Spannung am Generator abgebrochen. Dieser Test sollte bei Block 4 im April 1986 wiederholt werden, der jedoch mit verheerenden Folgen in einem GAU endete. Vermutungen, dass bei diesem Eingriff vorrangig militärische Optionen im Vordergrund standen, kann weitgehend ausgeschlossen werden. Ein Außerkraftsetzen von Notabschaltungsmaßnahmen ist eigentlich nur im damaligen Machtbereich der Sowjetunion möglich gewesen und zeigt die Manipulationsmöglichkeit in kerntechnischen Bereichen. Deswegen ist es unverhandelbar, nach eigenem Ermessen Sicherheitsstandards festzulegen, die nicht international akzeptiert werden können. Die IAEA (Internationale Atomenergiebehörde) in Wien hat Richtlinien erarbeitet, die für alle Betreiber kerntechnischer Anlagen verbindlich sind. Die Auffassung, dass durch menschliche Fehlbedienung der katastrophale Unfall ausgelöst wurde, wird nicht angezweifelt und damit begründet, dass durch das zu späte und schnelle Einfahren der Abschalt-und Regelstäbe der unkontrollierbare Leistungszuwachs ausgelöst wurde.

Wieviel radioaktives Material in den Reaktortrümmern verblieb, kann nur näherungsweise geschätzt werden und ist mit rund 190 Tonnen Kernbrennstoff zu veranschlagen. Die gasförmigen radioaktiven Spaltprodukte (Krypton und Xenon), leichtflüchtiges Jod und Cäsium wurden größtenteils in die Atmoshäre freigesetzt und wurden entsprechend den meteorologischen Verhältnissen weiträumig verbreitet. Erst Tage später meldeten norwegische Luftüberwachungseinrichtungen einen unerklärbaren Anstieg der o.a. Radioisotope. Warum diese Meldung erst so spät in die Öffentlichkeit gelangte, ist besorgniserregend, denn die amerikanischen Aufklärungssatelliten hatten das Szenario von Anfang an dokumentiert. Diese Nachricht schlug ein wie eine Bombe. Das aus dem Stegreif entstandene Ministerium für Umwelt, Naturschutz und Reaktorsicherheit unter Leitung eines Nichtfachmanns Walter Wallmann war auf eine deartige Herausforderung nicht vorbereitet. Es kam daher zu Kompetenzproblemen zwischen BMU und Innenministerium, geleitet von Minister Friedrich Zimmermann. Auch er war kein Fachmann dieser Problematik und versuchte unter dem Druck der damals sich etablierenden Antiatomkraftbewegung Gefahren und mögliche Schäden durch überstürzte Maßnahmen abzuwenden. Meine Aufgabe war es, die durch radioaktiven Niederschlag und Immisionen entstandene Kontamination auf Pflanzen, Boden und Nahrungskette zu bewerten. Bereits in den 50-er Jahren wurde diese Thematik ausführlich behandelt und aufgrund der Erfahrungen aus den beiden Atombombenabwürfen auf Hiroshima und Nagasaki ausführlich dokumentiert, so dass eine Abschätzung der Strahlenbelastung ohne große wissenschaftliche und technische Untersuchung möglich war. Die Beaufschlagung mit Cäsium war zwar deutlich erhöht, dennoch bestand bei den sehr niedrig vorgegebenen Grenzwerten, weit unter einer möglichen gesundheitlichen Beeinträchtigung, keine akute Gesundheitsgefährdung. Pilze und Wildtiere im Süden Deutschlands waren davon am stärksten betroffen, jedoch würde erst bei täglichem Verzehr in kg-Mengen der Strahlendosisgrenzwert überschritten. Die natürliche Strahlenexposition in Deutschland, insbesondere in ehemals vulkanischen Gebieten, Mineralwasser aus Tiefengestein, Bims als Baustoff, Langstreckenflüge und vieles mehr haben größere Strahlenwirkung als die als„belastet“ deklarierten Lebensmittel, die damals im großen Stil vernichtet wurden.

Die Notstandsgesetzgebung war der Rahmen aller wissenschaftlicher Untersuchungen und enthielt auch alle Anweisungen zum Verhalten staatlicher Organe. Durch eigenmächtiges und inkompetentes Verhalten der beiden Ministerien kam es zu einer völligen Verunsicherung nachgeschalteter Dienststellen und der Bevölkerung, die bis in die heutige Zeit wirkt und Grund für eine überzogene skeptische Haltung bezüglich wissenschaftlicher Berichterstattung ist.

Die gesundheitlichen Folgen der Tschernobyl-Reaktorhavarie wurden und werden auch heute kontrovers diskutiert und bewertet. Bei 134 Personen der Betriebsmanschaft und Liquidatoren wurde eine akute Strahlenerkrankung diagnostiziert, an der 28 verstarben. In der Bevölkerung der kontaminierten Gebiete konnte dennoch eine Erhöhung der Leukämie-, Schilddrüsen- und Brustkrebsrate nicht statistisch gesichert nachgewiesen werden. Auch andere Erkrankungen, konnten nicht eindeutig auf eine Strahlenexposition zurückgeführt werden. Das liegt möglicherweise auch daran, dass die Gesundheitsvorsorge und die Lebensbedingungen sich durch intensive medizinische Betreuung nach dem Unfall erheblich verbessert haben. Die 28 Todesfälle sind darauf zurückzuführen, dass für die sofort eingesetzte Notmannschaft und später eingesetzten Liquidatoren während ihres Einsatzes unzureichende Schutzmaßnahmen getroffen wurden. Bei der Reaktorhavarie durch den Tsunami in Fukushima hingegen, wurde das Reaktorgelände rechtzeitig verlassen und nach Rückgang der Wassermassen unter hohen Schutzmaßnahmen mit Sanierungsarbeiten begonnen ohne dass ein Todesfall aktenkundig wurde.

Erklärung von Präsident Trump zum Pariser Klima-Abkommen

Pressebüro des Weißen Hauses vom 1.6.2017

„Bevor wir das Pariser Abkommen besprechen, möchte ich mit dem neuesten Stand unseres enormen wirtschaftlichen Fortschritts seit der Wahl am 8. November beginnen. Die Wirtschaft beginnt zurück zu kommen, und das sehr rasch. Wir haben unserer Wirtschaft 3,3 Billionen Dollar im Marktwert der Börse hinzugefügt und über eine Million Jobs im privaten Sektor……………………………………
In meinen Treffen der G7 haben wir historische Schritte unternommen, einen fairen und auf Gegenseitigkeit beruhenden Handel zu fordern, der Amerika ein ausgeglichenes Spielfeld gegenüber anderen Nationen gibt………………………………………
Der Reihe nach erfüllen wir die von mir in meiner Präsidentschaftskampagne gemachten Versprechungen – sei es die Abschaffung der Job-zerstörenden Gesetze……….. oder das Zurückbringen von Jobs, Unternehmen und Fabriken in die USA in einem Umfang, den niemand bis jetzt für möglich hielt…………………………..
Bei diesen und vielen weiteren Sachverhalten folgen wir unseren Verpflichtungen. Und ich wünsche nicht, dass uns irgendetwas in die Quere kommt. Ich kämpfe jeden Tag für die großartigen Menschen dieses Landes.

Deshalb – um meine ernste Pflicht zum Schutz Amerikas und seiner Bürger zu erfüllen – werden sich die USA vom Pariser Klima-Abkommen zurückziehen und Verhandlungen einleiten, um entweder dem Pariser Abkommen wieder beizutreten oder für eine völlig neue Verhandlung über die Bedingungen, die für die Vereinigten Staaten fair sind – für ihre Unternehmen, ihre Arbeiter, ihre Menschen, ihre Steuerzahler.
Also steigen wir aus. Aber wir werden mit Verhandlungen beginnen und wir werden sehen, ob wir zu einem fairen Deal kommen können. Falls wir das erreichen, ist es vorzüglich. Wenn nicht, ist es großartig.

weiterlesen

Die Caritas baut keine Gaskraftwerke

Zitate zur deutschen Energiepolitik

Vorbemerkung

Die deutsche Energiepolitik der vergangenen Dekade hat eine unübersehbare Menge von Stellungnahmen, Gutachten, Artikeln, Leserbriefen, Magazinbeiträgen, Reden und Sprüchen hervorgebracht, die zumindest in Papierform schon lange nicht mehr speicherbar sind. Aber in dieser Informationsflut befinden sich doch zahlreiche Fundstücke, die verständlich formuliert, oft durch einen hilfreichen Sarkasmus verdaulicher gemacht wurden – und jeweils einen speziellen Sachverhalt interessant, knapp und fachlich fundiert kommentieren, wobei Einseitigkeit nicht unbedingt von Nachteil ist, schließlich geht es um ein Thema, bei dem Ausgewogenheit weder glaubwürdig noch möglich ist. Auf die Wiedergabe der zahlreichen Energiewende-Propagandasprüche wurde hier verzichtet, weil das die Bundesregierung kürzlich selbst mit ihrem großen Erfolgsbericht besorgt hat.
Die vorliegende Sammlung erhebt deshalb nicht den Anspruch auf politische Korrektheit, auch nicht auf Vollständigkeit, ebenso wenig auf Ausgewogenheit. Das Auswahlkriterium war Klarheit und Originalität. Dass die Energiepolitik der Regierung überwiegend schlecht dabei wegkommt, liegt am behandelten Objekt, das ein einzigartiges Sammelsurium von Fehlern, Wissensdefiziten, Umgehungsversuchen der Physik, Faktenunterdrückung, Rücksichtslosigkeit gegen die Natur, Ausplünderung der Bürger, direkten Lügen und Manipulationen darstellt, das es so in der Nachkriegszeit noch nie gab.

Die Zitate stammen weitestgehend von Menschen, die wissen, wovon sie sprechen – Experten aus der Wirtschaft, Wissenschaftler und Journalisten bilden die Mehrheit, aber auch Betroffene kommen zu Wort. Die Gesamtheit der „Clips“ enthält viel Klartext zu den einzelnen Themen; es ist aber auch ein Stimmungsbild.

Der Titel des Artikels ist ein Zitat von Günther Oettinger, das er als voll ins Schwarze treffenden Kommentar zu den politischen Leerformeln über die Notwendigkeit eines großen Ausbaus der Gaskraftwerke beisteuerte, die aber niemand mehr finanzieren will, weil sie durch eben diese Politik mit dem EEG in den Ruin getrieben werden.

Oettinger kommt manchen Leuten als trockener Bürokrat vor; tatsächlich ist er ein schwäbischer Schalk, dessen zielsicheren Spott schon viele erleiden mussten – in der Regel zu Recht.

Der Leser möge verzeihen, dass andauernd von erneuerbaren Energien die Rede ist. Selbstverständlich gibt es keine erneuerbaren Energien. Aber dieser Schwachsinnsbegriff hat sich durchgesetzt, so dass ihn mittlerweile selbst Fachleute benutzen, die während ihrer Ausbildung das eherne physikalische Gesetz, das den Namen “Erster Hauptsatz der Thermodynamik” trägt und die Grundlage der gesamten Energietechnik ist, eingebleut bekamen. Aber vielleicht weiß die Regierung gar nicht, dass die Gesetze der Physik einfach gelten, auch wenn sie politisch inkorrekt erscheinen mögen.

weiterlesen

Es ist die Sonne, Dummkopf

von Lawrence Solomon

Vorwort

In der Diskussion über das Klima spielt das IPCC, der rein politische Internationale Klimarat, der mit der Wissenschaft nichts zu tun hat, eine entscheidende Rolle. Dessen politische Aufgabe ist es, einen vom Menschen verursachten Einfluss auf die Klimaentwicklung zu beweisen – nur dieses Ergebnis ist gewünscht. Auch wenn das IPCC viele Wissenschaftler beauftragt, zu diesem Thema ihre Untersuchungen beizusteuern, filtert das IPCC deren oft 600 Seiten starken Berichte und veröffentlicht als oft nur 45 Seiten umfassendes Informations-Konzentrat die „Zusammenfassungen für politische Führungskräfte“, in denen jede in den Langfassungen der IPCC-Berichte noch vorhandene wissenschaftliche Kritik an der politischen Theorie vom menschengemachten Klimawandel und am angeblichen Verursacher Spurengas Kohlendioxid eliminiert worden ist. Ein durchgängiges Merkmal dieser Zusammenfassungen ist die konsequente Leugnung eines Einflusses der Sonne auf das Klima und seine Variationen.

Der kanadische Autor und Journalist Lawrence Solomon, der sich mit Energie- und Umweltthemen sowie mit dem Thema Klimawandel befasst, hat bereits am 23. Mai 2010 dazu den folgenden Artikel in der Financial Post veröffentlicht. Die ideologisch aufgebaute Fassade der vom IPCC betriebenen Angst- und Panikpropaganda begann schon zu diesem Zeitpunkt zu bröckeln. Noch wird sie aber von den Interessenten verteidigt. Der folgende Artikel von Lawrence Solomon hat deshalb bis heute nichts von seiner Aktualität verloren. Seine Überschrift ist eine Abwandlung des in den USA geflügelten Spruchs:„It’s the economy, stupid.“ Es ist die Wirtschaft, du Blödmann. Dieser inzwischen sprichwörtlich gewordene Satz war im Jahre 1992 der erfolgreiche Wahlkampf-Slogan von Bill Clinton. Erfunden hatte ihn sein Berater Chester James Carville Jr.
Übersetzung von Günter Keil.

Die Sonnenforscher überwinden endlich ihre Furcht und gehen zum Thema Sonne-Klima-Zusammenhang  in die Öffentlichkeit

Vor vier Jahren, als ich damit begann, Wissenschaftler, die Skeptiker der Globalen Erwärmung sind, vorzustellen, lernte ich bald zwei Dinge: Sonnenforscher waren überwältigend skeptisch gegenüber der Vorstellung, dass Menschen den Klimawandel verursachen, und waren aber ebenfalls zurückhaltend darin, mit ihrer Meinung in die Öffentlichkeit zu gehen. Oft lehnten sie es ab, überhaupt zitiert zu werden; sie gaben an, dass sie um die Finanzierung ihrer Arbeit fürchteten – oder sie fürchteten andere Gegenbeschuldigungen durch Klimaforscher aus dem Untergangsprediger-Camp.  Wenn diese Skeptiker überhaupt einer Zitierung zustimmten, entschärften sie ihre Aussagen, um sich selbst Ausweichräume zu verschaffen, falls man sie beschuldigte, ein Globalerwärmungs-Leugner zu sein.
Nur sehr wenige äußerten sich offen über ihre Skepsis.

Das ist nicht mehr so.

weiterlesen

Schadstoffe in Lebensmitteln und Entwicklung der Landwirtschaft. Eine kritische Betrachtung

Meldungen über Giftstoffe in Lebensmitteln und Getränken, in Textilien, Mobiliar, Baustoffen, Schadstoffe in der Luft, eigentlich in allem, was uns umgibt, verunsichern unsere Mitmenschen derart, dass sie ständig in Angst leben, davon gesundheitlich geschädigt zu werden. Ministerien und deren Behörden fordern deswegen Grenzwerte für die Unbedenklichkeit eines Produktes, die in Zusammenarbeit mit Forschungsinstituten, Landwirtschaftskammern und Produktherstellern überprüft und wissenschaftlich abgesichert werden müssen. Der Einsatz von Pflanzenschutzmitteln wird erst nach langjährigen Freilandversuchen mit wissenschaftlich fundierten Analysenmethoden vor einer Zulassung überprüft und erst nach einer Unbedenklichkeitsbescheinigung zugelassen.

Dennoch werden immer häufiger Meldungen veröffentlicht, die von “Schadstoffbelastungen“ in Lebensmitteln und Gebrauchsgegenständen berichten.

Aktuell gibt es eine kontroverse Diskussion über die Weiterzulassung von Glyphosat, ein überwiegend in der Landwirtschaft eingesetztes Unkrautbekämpfungsmittel, dem eine kanzerogene (krebsauslösende) Wirkung unterstellt wird. Nach bisher 30 Jahren im Einsatz konnte bei vorgeschriebener Anwendung und sachgemäßer Ausbringung jedoch kein Beleg dafür erbracht werden.

Es geht auch mehr um Rückstände des Wirkstoffs im Ernteprodukt. In Textilfasern und im Bier wurde dieser, wie in den Medien berichtet, nachgewiesen. Wäre die Untersuchung vor 40 Jahren durchgeführt worden, würde die Probe als unbelastet gelten. In dem oben genannten Zeitraum hat sich nämlich die Analysentechnik und somit die Nachweisgrenze von Mikrogramm (1 millionsstel Gramm) auf Nanogramm (1milliardstel Gramm) und Picogramm (1 billionstel Gramm) bis hin sogar in molekulare Strukturen verfeinert, so daß nun Stoffe erfaßt werden, die in geringsten Spuren vorhanden sind und die Konsumenten nicht abschätzen können, ob dennoch keine Gesundheitsbeeinträchtigung besteht. Reinprodukte gibt es in der Natur nicht, sondern sind stets mehr oder weniger stark kontaminiert mit Begleitstoffen.

Selbst in “Bioprodukten“ kann nahezu das gesamte Periodensystem der Elemente nachgewiesen werden, die je nach ihrer Konzentration nicht oder doch gesundheitsgefährdent sind. Die Sensibilität und Stoffwechseltoleranz der Konsumenten ist auch stark von deren genetischen Konstitution

abhängig. Bestes Beispiel dafür ist die Nitratunverträglichkeit bei Säuglingen mit der genetisch veranlagten Säuglingsmethämoglobinämie, die eine Begrenzung von 50 mg pro Liter erforderte.

Ab welcher Konzentration ein Stoff in einem Produkt gesundheitsschädliche Wirkung hat, bzw. haben könnte, wird durch EU-weite Grenzwertfestlegung geregelt und auch international von UN-Gremien gefordert, um auch bei einer geringsten Auffälligkeit den Verdacht einer negativen Beeinträchtigung auszuräumen.

Allein der Hinweis, dass Pflanzenschutzmittel, soganannte Pestizide (Begriff suggeriert giftig und Pest verursachend) und Unkrautbekämpfungsmittel in unseren konventionell erzeugten Lebensmitteln nachgewiesen werden, fördert den Markt “Ökologische Produktion“ als Alternative einer Produktionsweise ohne chemische Pflanzenschutz- und Düngemittel. Dennoch muß der Mineralstoffentzug durch das Ernteprodukt ausgeglichen werden, um eine weitere Bewirtschaftung zu ermöglichen. Dieses erfolgt mit tierischen Exkrementen (Mist und Gülle) und Ernterückständen, wie es in der Vergangenheit in der Kombination Ackerbau, Grünland und Viehhaltung üblich war. Erst durch den Einsatz chemischer Düngemittel konnten jeweils Acker-, Pflanzenbau- und Grünlandbetriebe entstehen und somit in Folge auch Massentierhaltungsbetriebe, die ihre Futtermittel auf dem Markt zukaufen konnten. Damit war der Grundstein für eine industrielle Landwirtschaft gelegt worden. Hohe Produktionsleistung in Quantität und Qualität sind Marktforderungen einer beängstigend wachsenden Weltbevölkerung, die nur noch großflächig mit hohem technischen Einsatz und mit Massentierhaltung erreichbar sind.

So erklärt es sich auch, dass neue Erkenntnisse der Biotechnologie große Bedeutung erlangen, wie sich in der Anwendung der Gentechnik, insbesondere bei der Futtermittelindustrie in Form von Gen-Mais zeigt. Durch Resistenzen gegen Schädlingsbefall wird der Ernteertrag erheblich gesteigert und trägt somit zur Ertragssicherheit bei.

Produktionstechnische Optimierungsverfahren dürfen jedoch ökologische Aspekte nicht verdrängen und müssen zukunftsbezogen zwischen Ökologie und Ökonomie ausgewogen werden. Auch die Abkehr von originären Zielen der Landwirtschaft zur Lebensmittelerzeugung hin zu “Energiewirten“ sollte nachdenklich stimmen, da Flächen für die Energieproduktion (Gas und Treibstoffe) der Nahrungs- und Futtermittelproduktion entzogen werden, eine Folge, die auf die aktuelle Energiepolitik der Bundesregierung zurückzuführen ist.

Journal Kabinett 4/2016, Seite 20-21

Ethik-Kommission „Windkraft-Ausstieg“

Es gehört zu den Treppenwitzen der Technikgeschichte, dass gegen Ende des 20. Jahrhunderts eine uralte Methode der Energiegewinnung – die Windmühle – ausgerechnet in den angeblich aufgeklärten Industrieländern auf der Nordhalbkugel mit einer massiven staatlichen Förderung als  Stromquelle wiederbelebt wurde.
Dies geschah durchaus in Kenntnis der Gründe, wegen derer eben diese noch im 19. Jahrhundert stark verbreitete Technik nach 1880 in kürzester Zeit durch eine weitaus überlegene moderne Technik – die Dampfmaschine – buchstäblich ausgerottet wurde. Dampfmaschinen ersetzten alle Windmühlen, die in Holland der Entwässerung dienten, sie machten allen Segelschiffen den Garaus und auch die Getreidemühlen, die dieser Technik ihren Namen gegeben hatten, verloren  ihren Windantrieb.
Der Grund für diesen tiefgreifenden Umbruch war der ewig ertragene gravierende Nachteil der Windkraft: Ihre wetterabhängige Unberechenbarkeit, ihre starken Leistungsschwankungen, ihre häufigen Stillstandzeiten und damit ihre grundsätzliche Nichteignung für jede Nutzung, die Dauerleistung und Zuverlässigkeit benötigt. Nichts hat sich an diesen „inhärenten“ Nachteilen geändert; schließlich gibt es immer noch das gleiche Wetter wie 1880. Dafür sorgt die Sonne.
Durch die neuen Windrad-Konstruktionen sind sogar neue, schwerwiegende Nachteile hinzu gekommen: Die Gesundheitsgefährdung durch Lärm, Infraschall und Körperschall (s.u.).

In einer Mischung aus Technikromantik, Öko-Ideologie und Ignoranz aufgrund von schlechter Schulausbildung in Physik und Mathematik haben es politische Gruppierungen geschafft, die Windkraft als eine angebliche Chance für die Stromversorgung eines Industrielandes in großzügige staatliche Förderungen zu bringen.
Aber nur in der Industrienation Deutschland kam die Regierung auf die Idee, die gesamte Grundlast-Stromversorgung aufzugeben und sie durch die sog. Erneuerbaren zu ersetzen. Die kostengünstige und zuverlässige Versorgung durch Kern- und Kohlekraftwerke soll abgeschafft werden – die Kernkraft, weil sie angeblich gefährlich ist; die Kohlekraftwerke, weil sie angeblich das Klima bedrohen. Ihr Ersatz soll ausgerechnet durch die Wetter- und Tageslicht-abhängigen Windkraft- und Photovoltaik-Anlagen erfolgen.

Die Physik macht Windkraft zu einer unbrauchbaren Energieerzeugung
Da auch die Windstromerzeugung den physikalischen Gesetzen unterliegt, muss man zur Kenntnis nehmen, dass die Leistung einer Windturbine von der 3. Potenz der Windgeschwindigkeit abhängig ist. Dagegen hilft keine noch so merkwürdige Konstruktion.

weiterlesen

Die Geschichte der CO2-Lüge

Kapitel 1: Naturwissenschaftliche Hypothesen

1824 Der französische Mathematiker Jean Baptiste Joseph Fourier postuliert, dass die Atmosphäre durch vom Erdboden ausgehende Strahlung erwärmt wird nachdem die Sonnenstrahlung den Erdboden aufgeheizt hat.
1850 Der deutsche Physiker Rudolf Emanuel Clausius formuliert den sogenannten 2. Hauptsatz der Thermodynamik: „Wärme kann nie von selbst von einem Körper niederer Temperatur auf einen Körper höherer Temperatur übergehen“.
1859 Der deutsche Physiker Gustav Robert Kirchhoff formuliert die Gesetze des Wärmeübergangs durch Strahlung (Kirchhoff’sche Strahlungsgesetze). Im thermischen Gleichgewicht müssen Absorption und Emission zweier Wärme austauschende Körper gleich sein. Beachte: Die Erdatmosphäre ist ein offenes System in dem kein Gleichgewicht zwischen Erdboden und Hochatmosphäre einstellbar ist.
1862 Der irische Physiker John Tyndall beschreibt einen auf den Strahlungseigenschaften der Gase beruhenden Treibhauseffekt, für den vor allem Wasserdampf eine Rolle spielt, aber auch CO2 wichtig ist.
1896 Der schwedische Physiko-Chemiker Svante Arrhenius entwickelt ein auf dem Treibhauseffekt aufbauendes Klimamodell. CO2 absorbiert die von der Erde ausgehende Strahlung und heizt dadurch das Klima auf. Durch Vulkanismus schwankt der CO2 Gehalt, was zu Klimaänderungen führt. Er erkennt auch, dass dabei auch Wasserdampf eine wichtige Rolle spielt. Zitat: „Der Anstieg des CO2 wird dem Menschen erlauben, unter einem wärmeren Himmel zu leben“.

Betrachtet man die auf der vorigen Seite in historischer Reihenfolge zitierten Beiträge der damals führenden Forscher, so erkennt man, dass sie nicht widerspruchsfrei sind. Das soll den unabhängig voneinander mit unterschiedlichen Schwerpunkten arbeitenden Forschern nicht angelastet werden.

Heute wissen wir:

Der Anteil des Kohlendioxids CO2 in der Atmosphäre ist extrem gering (4 Moleküle CO2 auf 10.000 Luftmoleküle). Schon von daher ist es nicht plausibel, dass kleine Änderungen in der ohnehin derart niedrigen Konzentration dieses Gases das ganze System des Erdklimas entscheidend beeinflussen können. Die dreiatomigen CO2 Moleküle können in Bodennähe nicht strahlen, da sie nur Schwingungsenergie aufnehmen, die sie in der dichten Atmosphäre sofort durch Stöße mit den Luftmolekülen wieder verlieren. CO2 kann erst in der dünnen und kalten Hochatmosphäre Wärmeenergie durch Strahlung abgeben. Dies ist wichtig, für die Kühlung der Erde zum Weltraum hin. Eine nach der Treibhaus-Hypothese geforderte Wärmeübertragung durch eine „Gegenstrahlung“ zur niedrigen Troposphäre, also vom Kalten zum Warmen, widerspricht dem 2. Hauptsatz der Thermodynamik und kann daher nicht stattfinden.
Die Erdatmosphäre ist kein Treibhaus, es fehlt das Dach als wesentliches Element der im Garten benutzten Gewächshäuser. Deren Effekt beruht auf der Behinderung des konvektiven Wärmeaustauschs. Die Strahlung spielt dabei keine Rolle. Dies wurde von dem U.S. Amerikanischen Physiker Robert William Wood bereits 1906 experimentell  nachgewiesen.

weiterlesen

Elektroauto-Verehrung und -Subventionierung – eine Politiker-Krankheit

Die x-te Wiederauferstehung

Es war wohl unvermeidlich, dass in Folge der politischen Klimaerwärmungspanik auch das Elektroauto wieder entmottet wurde. Die unverbrüchliche Vorliebe der Politiker für diese Technik   hat etwas mit Vorstellungen von Sauberkeit, lautlosem Dahingleiten, Sparsamkeit und vollkommener Umweltfreundlichkeit zu tun. E-Autos verbrauchen kein Benzin (außer den Hybrids), sondern nur ganz sauberen Strom, der immer von Sonnenkraftwerken und Windmühlen geliefert wird. Und Sonne und Tiefdruckgebiete schicken bekanntlich keine Rechnung. Es ist die heile Autowelt – man muss sie nur endlich verwirklichen.

Den neuen Startschuss gab kein Geringerer als Barack Obama während seiner Wahlkampagne im August 2008. Er forderte, dass bis zum Jahre 2015 eine Million Hybrid- und Elektroautos (merken Sie was ?) über die Straßen der U.S.A. rollen sollten. Seither ist dort eine sehr erhebliche Summe an Dollars – die Zeitschrift Scientific American spricht von „Milliarden“ – an staatlicher Förderung ausgegeben worden: An Steuervergünstigungen (7.500 US$ beim Kauf) ; 2,4 Mrd. US$ für Batterie-F&E; 115 Mio US$ für Ladestationen…(Es kommt einem sehr bekannt vor – siehe unten die Beschreibung des deutschen „Nationalen Entwicklungsplans Elektromobilität“.)

Dieses Ziel der US-Administration wurde weit verfehlt.

weiterlesen