Der Diesel im Kreuzfeuer der Kritik

Der Kraftstoff Diesel ist zurzeit Dauerthema in den Medien. Die kontroversen Diskussionen über seine Umweltverträglichkeit haben unsere Mitbürger mehr und mehr verunsichert. Das liegt daran, dass eine sachliche, fachliche und wissenschaftliche Beurteilung durch eine emotionale, einseitig orientierte, interessengebundene und medienwirksame Berichterstattung erschwert wird. Nicht unschuldig daran ist die Automobilindustrie selbst, denn sie hat es vermieden und verschwiegen, den politischen Akteuren klar zu sagen, wo die technische Machbarkeit mit politischen Forderungen zur Abgasreinigung zu bezahlbaren Kosten nicht mehr in Einklang zu bringen ist. Stattdessen, aus Angst vor Marktverlusten und der Konkurrenz zwischen den führenden Automobilherstellern, wurde versucht, mit manipulierter Software die Grenzwertvorgaben auszutricksen. Zu glauben, dass diese Manipulation geheim gehalten werden kann, grenzt schon an Naivität.

Nachdem VW als eine der größten Weltfirmen auffiel, kamen natürlich die Konkurrenten auch auf den Prüfstand und, wie zu erwarten war, wurde man fündig und somit zu einem Fall für die Justiz.

Im folgenden wird hervorgehoben welche Unterschiede zwischen leistungsvergleichbaren Benzin- und Dieselverbrennungsmotoren bestehen.

Dieselkraftfahrzeuge sind beim Erwerb deutlich teurer (8-10 %) als Benziner. Die Treibstoffkosten für Benzin sind durchschnittlich 30 % teurer als für Diesel. Die steuerlichen Abgaben beim Benzin betragen ca. 59 %, beim Diesel ca. 51 % der Spritkosten. Diese Vergünstigung wurde damit begründet, dass Dieselfahrzeuge umweltverträglicher seien. Doch durch die Hintertür holt sich der Fiskus diese Vergünstigung durch eine um rund 70 % höhere Kfz-Steuer für Dieselfahrzeuge wieder herein. Somit ist das Argument einer Bevorzugung der Dieselfahrzeughalter nicht haltbar. Rechnerisch ergab der Wirtschaftlichkeitsvergleich, dass ein Dieselfahrzeug erst bei einer jährlichen Kilometerleistung von mindestens 20.000 Kilometern einen Gleichstand erreicht. Nur für Vielfahrer, die beruflich große Strecken fahren müssen, ist ein Dieselfahrzeug die wirtschaftlichere Variante. Die oben erwähnte Umweltverträglichkeit wurde mit der Langlebigkeit der Dieselfahrzeuge und dem geringeren Spritverbrauch (rund 40 % weniger und geringere CO2-Emissionen) begründet.

Mit der politischen Zielsetzung zur Luftreinhaltung, Verbrennungsmaschinen in Zukunft durch Elektrofahrzeuge zu ersetzen, wurde die Umweltverträglichkeit der konventionellen Antriebe verschärft und neu bewertet.

Neben CO2 wird bei Dieselfahrzeugen, durch höhere Verbrennungstemperaturen bedingt, eine erheblich höhere Menge an sauerstoffhaltigen Stickstoffverbindungen (NOx) und Rußpartikel an die Umwelt abgegeben. Letztere werden unter dem Begriff Feinstaub mit einbezogen, was von der Partikelgröße und -zusammensetzung definitiv nicht korrekt ist. Feinstaub entsteht sowohl aus Reifen-, Bremsen-und Straßenbelagsabrieb, als auch aus Verbrennungsvorgängen der Fahrzeugmotoren. Über die Anteile aus Abrieb und Verbrennung gibt es keine verlässliche Angaben, sondern mehr oder weniger Abschätzungen, die eine große Streubreite haben. Der Feinstaubanteil aus Reifen -, Bremsen- und Straßenbelagsabrieb wird auch bei einer Umstellung auf Elektroantriebe infolge wachsender Kraftfahrzeugdichte weiter zunehmen.

Ein neues Feindbild NOx soll die Umweltverträglichkeit in Frage stellen. Sauerstoffhaltige Stickstoffverbindungen sind für die Vegetation eine Nährstoffquelle, die, wie man sieht zu einem üppigen Pflanzenwachstum an Autobahnrandstreifen und zu keinen Entwicklungs-störungen führt. Zu einer Lungenbelastung mit erkennbaren Schädigungen durch salpetrige Säure kommt es erst, wenn die Konzentration von NOx im 2-stelligen ppm-Bereich (über 1000 Mikrogramm pro Kubikmeter Luft) und nicht in Größenordnungen unter 100 Mikrogramm liegt.

Auch bei einem Arbeitsplatzgrenzwert für NO2 von 950 Mikrogramm pro Kubikmeter Luft über den Zeitraum einer 40 Stundenarbeitswoche konnte keine gesundheitlich erkennbare

Beeinträchtigung nachgewiesen werden. Dennoch einigte man sich mit der europäischen Kommission auf einen 1-Stunden-Grenzwert für NO2 von 200 Mikrogramm pro Kubikmeter Luft, bzw. auf einen Jahresmittelwert für Verkehr von 40 Mikrogramm pro Kubikmeter Luft, das ist lediglich 1/5 der maximalen Arbeitsplatzkonzentration. Dieser weit unter einer Risikoschwelle liegende Grenzwert rechtfertigt kein Dieselfahrverbot. Überdies werden die neuesten Dieselfahrzeuge bereits mit einer technisch verbesserten und wirtschaftlich vertretbaren Abgasreinigung ausgerüstet. Mit dem „AdBlue-Verfahren“ auf Harnstoffbasis mit SCR-Kat (Twintec-System) wird eine Stickoxidreduktion um 90% erreicht, die sogar über die Vorgaben des Euro 6-Grenzwertes hinausgeht. Das Additiv AdBlue wird mit 5-7% dem Kraftstoff zugefügt, entsprechend 1 Liter auf 20 Liter Kraftstoff (Reichweite ca. 400 km) zu einem Preis von rund 1 Euro.

Rußemissionen werden bereits durch eine geregelte Kraftstoffeinspritzung im Verbrennungsraum und durch Zuführung von katalytisch wirksamen Additiven oder durch Einspritzung in das Abgassystem mit dort erfolgender Oxidation vermieden. Mit der neuen Software soll lediglich die Kraftstoffeinspritzung und Verbrennungstemperatur weiter optimiert werden.

Dieselneufahrzeuge müssen bereits die Euro-6-Grenzwerte einhalten. Altfahrzeuge werden erfahrungsgemäß schnell von der Straße verschwinden, wenn eine Nachrüstungspflicht besteht.

Die Verteufelung der Dieselfahrzeuge ist ungerechtfertigt und entbehrt jeglicher Sachlichkeit sowie wissenschaftlicher und technischer Argumentation.

Deswegen besteht dringend Aufklärungsbedarf mit einer Stellungnahme seitens der Automobil-industrie und öffentlichen Medien über den Sachstand der Pro-und Contra Argumente.

Die sich nun über Monate hinziehende Verschleierungstaktik deutet eher daraufhin, dass die Sorge um die Volksgesundheit nur ein vorgeschobenes Argument ist und dass es in Wirklichkeit nur darum geht, politischen Zielen, wie das Vorantreiben der Elektromobilität, den Weg zu bereiten.

Journal Kabinett 3/2017, Seite 30-31

Tschernobyl Reaktorhavarie Eine Nachlese

Als Sachverständiger im Fach Radioagronomie wurde ich im neu geschaffenen Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit unter Minister Walter Wallmann im Mai 1986 beauftragt, die Auswirkung der durch die Reaktorhavarie freigesetzten Radioaktivität auf Boden, Pflanze und Nahrungskette zu beurteilen. Die Bewertung basierte auf Meßdaten der Luftüberwachung und der vor Ort gemessenen Aktivität und Isotopenanalyse, ca. 1 Woche nach dem GAU (Größter anzunehmender Unfall).

Der havarierte Reaktor Block 4, 1984 in Betrieb genommen, ist ein RBMK-Reaktor, ein Hochleistungs-Siedewasser-Druckröhrenreaktor, wassergekühlt und graphitmoderiert, eine Weiterentwicklung der Serie aus den1950-er Jahren. Sie werden zur Stromerzeugung und für militärische Zwecke (Plutoniumerzeugung) genutzt. Sie haben keine druckfeste und gasdichte Hülle und entsprechen nicht den Sicherheitsbestimmungen internationaler Standards kerntechnischer Anlagen.

Am 25.04.1986, gegen 1.00 Uhr kam es infolge von unvorhersehbaren Verkettungen durch menschliche Fehlentscheidungen und technische Probleme zu einem GAU in dem sowjetischen Kernreaktor Block 4 in Tschernobyl. Dieser ereignete sich während eines Testbetriebs, bei dem geprüft werden sollte, ob bei einem Stromausfall und der damit verbundenen Abschaltung des Reaktors die mechanische Energie der Turbinenrotoren bis zum Anlaufen der dieselbetriebenen Notstromaggregate übergangsweise zur Strombereitstellung für den Steuerbetrieb des Reaktors ausreicht. Menschliche Bedienungsfehler und Unkenntnis der im kritischen Bereich agierenden Betriebsmanschaft führten zu dieser Katastrophe. Bereits 1985 wurde dieser Test bei Block 3 durchgeführt und durch das Abfallen der Spannung am Generator abgebrochen. Dieser Test sollte bei Block 4 im April 1986 wiederholt werden, der jedoch mit verheerenden Folgen in einem GAU endete. Vermutungen, dass bei diesem Eingriff vorrangig militärische Optionen im Vordergrund standen, kann weitgehend ausgeschlossen werden. Ein Außerkraftsetzen von Notabschaltungsmaßnahmen ist eigentlich nur im damaligen Machtbereich der Sowjetunion möglich gewesen und zeigt die Manipulationsmöglichkeit in kerntechnischen Bereichen. Deswegen ist es unverhandelbar, nach eigenem Ermessen Sicherheitsstandards festzulegen, die nicht international akzeptiert werden können. Die IAEA (Internationale Atomenergiebehörde) in Wien hat Richtlinien erarbeitet, die für alle Betreiber kerntechnischer Anlagen verbindlich sind. Die Auffassung, dass durch menschliche Fehlbedienung der katastrophale Unfall ausgelöst wurde, wird nicht angezweifelt und damit begründet, dass durch das zu späte und schnelle Einfahren der Abschalt-und Regelstäbe der unkontrollierbare Leistungszuwachs ausgelöst wurde.

Wieviel radioaktives Material in den Reaktortrümmern verblieb, kann nur näherungsweise geschätzt werden und ist mit rund 190 Tonnen Kernbrennstoff zu veranschlagen. Die gasförmigen radioaktiven Spaltprodukte (Krypton und Xenon), leichtflüchtiges Jod und Cäsium wurden größtenteils in die Atmoshäre freigesetzt und wurden entsprechend den meteorologischen Verhältnissen weiträumig verbreitet. Erst Tage später meldeten norwegische Luftüberwachungseinrichtungen einen unerklärbaren Anstieg der o.a. Radioisotope. Warum diese Meldung erst so spät in die Öffentlichkeit gelangte, ist besorgniserregend, denn die amerikanischen Aufklärungssatelliten hatten das Szenario von Anfang an dokumentiert. Diese Nachricht schlug ein wie eine Bombe. Das aus dem Stegreif entstandene Ministerium für Umwelt, Naturschutz und Reaktorsicherheit unter Leitung eines Nichtfachmanns Walter Wallmann war auf eine deartige Herausforderung nicht vorbereitet. Es kam daher zu Kompetenzproblemen zwischen BMU und Innenministerium, geleitet von Minister Friedrich Zimmermann. Auch er war kein Fachmann dieser Problematik und versuchte unter dem Druck der damals sich etablierenden Antiatomkraftbewegung Gefahren und mögliche Schäden durch überstürzte Maßnahmen abzuwenden. Meine Aufgabe war es, die durch radioaktiven Niederschlag und Immisionen entstandene Kontamination auf Pflanzen, Boden und Nahrungskette zu bewerten. Bereits in den 50-er Jahren wurde diese Thematik ausführlich behandelt und aufgrund der Erfahrungen aus den beiden Atombombenabwürfen auf Hiroshima und Nagasaki ausführlich dokumentiert, so dass eine Abschätzung der Strahlenbelastung ohne große wissenschaftliche und technische Untersuchung möglich war. Die Beaufschlagung mit Cäsium war zwar deutlich erhöht, dennoch bestand bei den sehr niedrig vorgegebenen Grenzwerten, weit unter einer möglichen gesundheitlichen Beeinträchtigung, keine akute Gesundheitsgefährdung. Pilze und Wildtiere im Süden Deutschlands waren davon am stärksten betroffen, jedoch würde erst bei täglichem Verzehr in kg-Mengen der Strahlendosisgrenzwert überschritten. Die natürliche Strahlenexposition in Deutschland, insbesondere in ehemals vulkanischen Gebieten, Mineralwasser aus Tiefengestein, Bims als Baustoff, Langstreckenflüge und vieles mehr haben größere Strahlenwirkung als die als„belastet“ deklarierten Lebensmittel, die damals im großen Stil vernichtet wurden.

Die Notstandsgesetzgebung war der Rahmen aller wissenschaftlicher Untersuchungen und enthielt auch alle Anweisungen zum Verhalten staatlicher Organe. Durch eigenmächtiges und inkompetentes Verhalten der beiden Ministerien kam es zu einer völligen Verunsicherung nachgeschalteter Dienststellen und der Bevölkerung, die bis in die heutige Zeit wirkt und Grund für eine überzogene skeptische Haltung bezüglich wissenschaftlicher Berichterstattung ist.

Die gesundheitlichen Folgen der Tschernobyl-Reaktorhavarie wurden und werden auch heute kontrovers diskutiert und bewertet. Bei 134 Personen der Betriebsmanschaft und Liquidatoren wurde eine akute Strahlenerkrankung diagnostiziert, an der 28 verstarben. In der Bevölkerung der kontaminierten Gebiete konnte dennoch eine Erhöhung der Leukämie-, Schilddrüsen- und Brustkrebsrate nicht statistisch gesichert nachgewiesen werden. Auch andere Erkrankungen, konnten nicht eindeutig auf eine Strahlenexposition zurückgeführt werden. Das liegt möglicherweise auch daran, dass die Gesundheitsvorsorge und die Lebensbedingungen sich durch intensive medizinische Betreuung nach dem Unfall erheblich verbessert haben. Die 28 Todesfälle sind darauf zurückzuführen, dass für die sofort eingesetzte Notmannschaft und später eingesetzten Liquidatoren während ihres Einsatzes unzureichende Schutzmaßnahmen getroffen wurden. Bei der Reaktorhavarie durch den Tsunami in Fukushima hingegen, wurde das Reaktorgelände rechtzeitig verlassen und nach Rückgang der Wassermassen unter hohen Schutzmaßnahmen mit Sanierungsarbeiten begonnen ohne dass ein Todesfall aktenkundig wurde.

Deutschlands Chance zur Erschließung neuer Wirtschaftsmärkte in Asien und bei der Integration Europas in die Neue Seidenstrasse

2. Folge: Projekte, die die Welt verändern
von Andrea Andromidas und Rainer Six

Das Projekt „ Moderne Seidenstraße“, als Chance zur Erschließung und Integration des asiatischen Wirtschaftsraums in einer zukünftigen globalen Weltwirtschaft zu nutzen, ist der in den letzten 40 Jahren beispiellosen wirtschaftlichen Entwicklung Chinas zu verdanken. Zurückzuführen ist das vor allen Dingen auf die Abkehr von der grünen Planwirtschaft nach Mao´s Tod, mit dem Ziel, dass sich die wirtschaftliche Entwicklung an dem wissenschaft-lichen und technischen Stand westlicher Industrieländer orientieren muß. Längst hat das Land den Status des Billigproduzenten überwunden und sich in den letzten 15 Jahren zur Industrie-nation mit dem höchsten Anteil forschungsintensiver Güter entwickelt, einer Hightech-Infrastruktur und einem sehr ehrgeizigen Raumfahrtprogramm.
Am 7. September 2013 präsentierte Präsident Xi Jinping bei einer Konferenz in der zentralasiatischen Stadt Astana in Kasachstan dieses Entwicklungskonzept nun auch als Chinas Modell für die internationalen Beziehungen, als„ One Belt-One Road“ ( Eine Straße- ein Gürtel), abgekürzt OBOR. An dieser Entwicklungsidee sind mittlerweile über 70 Länder beteiligt.

weiterlesen

Leserbrief zum GA-Bericht „Kommunen gehen leer aus“ vom 23.02.2017

Wer geglaubt hat, dass die RWE-Tochter Innogy mit dem Schwenk zu den „Erneuerbaren Energien“ eine Konzernbilanzstabilisierung bewirken könnte, sieht sich derbe enttäuscht. Wie blind und gutgläubig muß man sein, wenn man die aktuelle Entwicklung bei den finanziellen Verpflichtungen des Mutterkonzerns bezüglich Ausstieg aus der konventionellen Energieerzeugung und den damit verbundenen Rückbau- und Entsorgungskosten völlig unrealistisch einschätzt. Es ist eine Farce, wenn Innogy Umweltprojekte fördert und Umweltpreise vergibt, die sich im Grunde genommen gegen das eigentliche Geschäftsmodell richten. Wer selber an dem Ast sägt, auf dem er sitzt, muss sich auf den Absturz gefaßt machen. Das gilt auch für kommunale Aktionäre, die auf eine alternative Energieerzeugung, insbesondere Windkraftnutzung, gesetzt haben und somit den Dividendenabsturz mit bewirkt zu haben.
Dr. Rainer Six

Deutschlands Chance zur Erschließung neuer Wirtschaftsmärkte in Asien und bei der Integration Europas in die Neue Seidenstrasse

Von Dr. Rainer Six und Andrea Andromidas

Durch zunehmende kriegerische Auseinandersetzungen, Massenmigration, Terroranschläge, wirtschaftliche Imbalancen und zunehmende Differenzen zwischen vermögenden und armen Gesellschaftsschichten gerät die bisher gewohnte Weltordnung wohlhabender Industriestaaten ins Wanken. Gründe hierfür sind einerseits das ungebremste Bevölkerungswachstum mit steigenden Ansprüchen an Lebensqualität und Bedarf an Ressourcen, Energie und Nahrung, andererseits deren ungerechte Verteilung. Ursache hierfür sind Privilegien einer gebildeten und wohlhabenden Gesellschaftsschicht, die die Produktivität ihrer Mitmenschen zur Wertschöpfung nutzen, sie aber nicht im gleichen Maße daran profitieren ließen und lassen und auch nicht daran interessiert waren und sind, deren Bildungsstand nachhaltig zu verbessern. Solange diese benachteiligten Bevölkerungsgruppen ihre Grundbedürfnisse eines erträglichen Lebens befrieden können, entsteht kein Gefährdungspotential und die Abhängigkeit wird als Selbstverständlichkeit akzeptiert. Bei drastischen Einschnitten in die individuelle Freiheit und Versagen gewohnter Lebensansprüche kann die Toleranzschwelle schnell erreicht werden, die zu einer heftigen Gegenreaktion führen kann. Folgen sind soziale Verwerfungen, Verlust von Moral und Idealen, die Gesellschaft driftet auseinander und zerfällt in zwei Lager, die kaum noch konsensfähig sind.

Ausweg aus dieser fatalen Entwicklung ist eine wirtschaftliche und gesellschaftspolitische Neuorientierung und eine Überwindung der geopolitischen Konfrontationspolitik. Das Blockdenken West gegen Ost, Industrienationen im Kampf um wirtschaftliche Vormachtsstellung, Kontinent gegen Kontinent, Abschottung der Weltmärkte USA, Europa, Asien, Indien, Japan und Entwicklungsländer Afrika (trotz Bodenschätze) und osteuropäische Länder müssen beseitigt werden.

Eine Wende, so hoffen die Teilnehmer an den Verhandlungen auf dem Weltwirtschaftsforum (WEF) in Davos im Januar 2017, dass die Weltgemeinschaft die Unumkehrbarkeit der globalen Wirtschaftsentwicklung, aber auch die daraus zu nutzenden Vorteile für alle erkennt und sich gemeinsam für den Erfolg einer Wirtschaftsstrategie einsetzt. Dass ausgerechnet Deutschlands Kanzlerin Angela Merkel nicht an dieser Veranstaltung teilnimmt, ist bedauerlich und zeugt nicht von politischem und wirtschaftlichen Weitblick.

Die Notwendigkeit und Vorteile bilateraler Zusammenarbeit bestätigen Wirtschaftsabkommen zwischen den BRICS-Staaten (Abkürzung von: Brasilien, Rußland, Indien, China und Südafrika), die sich zusammengeschlossen haben, um gemeinsam eine Politik wirtschaftlicher Entwicklung nicht nur für ihre eigenen Länder, sondern zum Wohl der gesamten Menschheit zu betreiben.

China hat kürzlich die Asiatische Infrastruktur-Investitionsbank (AIIB) ins Leben gerufen, der sich mehr als 20 Nationen Asiens als Gründungsmitglieder angeschlossen und einen Entwicklungsfonds für die Seidenstrasse gebildet haben. Bei der APEC-Konferenz in Beijing hat Chinas Präsident Xi Jinping den ausgeschiedenen US-Präsidenten Obama aufgefordert, sich den Bemühungen Chinas und anderer asiatischer Nationen einschließlich Rußlands zum Aufbau der Neuen Seidenstraße anzuschließen. Im Gegensatz zu der von Obama favorisierten Transpazifischen Partnerschaft (TPP), von der Rußland und China ausgeschlossen sind, stehen die Initiativen der BRICS-Staaten, darunter die von China vorgeschlagene Freihandelszone für Asien und den Pazifik (FTAAP), allen offen. Auf dem jüngsten G-20-Treffen in Australien sprachen deshalb sowohl Präsident Xi Jinping als auch der indische Premierminister Narendra Modi von dem doppelten Ziel, durch wirtschaftliche Entwicklung Frieden auf der Welt zu schaffen und die Armut zu beenden.

Der Schlüssel zur Integration Europas in die Entwicklungskorridore der Neuen Seidenstrasse ist Deutschland, das in der Vergangenheit Zentrum der Handels-und Kulturentwicklung zwischen Asien und Europa war. Auf dem Weltwirtschaftsforum in Davos wurde deutlich, dass die Wirtschaftsbeziehungen zu China und deren wirtschaftliche Entwicklung von großem Interesse sind, da sich Präsident Xi Jinping für eine Politik der offenen Märkte einsetzen will. Er plädiert für eine offene globale Wirtschaft und fordert die weitere Liberalisierung des internationalen Handels zu unterstützen. Desweiteren soll der Marktzugang für ausländische Unternehmen vereinfacht, erleichtert und die Rechtssicherheit verbessert werden. Die dringendste Aufgabe ist es, die Weltwirtschaft vor einer drohenden Rezession zu bewahren und so zu einer Schicksalsgemeinschaft der Industrienationen führen muß. China ist eines der Länder, das in den vergangenen 30 Jahren am meisten von der Globalisierung profitiert hat. Hunderte Millionen Menschen entkamen der Armut, weil sie Arbeitsplätze in neuen Industrien fanden, die überwiegend für den Weltmarkt fertigten.

Von einem Wirtschaftswachstum Chinas für 2016 von 6,7 % , trotz Rückgang, träumen die meisten europäischen und amerikanischen Industrien und sind deswegen gut beraten, sich von nationalen und hegemonistischen Wirtschaftsprinzipien zu lösen und alternative Möglichkeiten in Betracht zu ziehen.

Der Arbeitnehmeranteil an der Produktivitätsentwicklung und Erwirtschaftung des Sozialprodukts der westlichen Industriestaaten hat sich in den letzten 40 Jahren drastisch verändert, nämlich von der Schaffung materieller Produkte und Güter in der Landwirtschaft, im Baugewerbe, im Bergbau und in Produktionsanlagen für Gebrauchsgegenstände wie Autos, Maschinen etc. hin zu Dienstleistungen (Verwaltung, soziale Dienste, Lehrberufe, Dienste im Gesundheitswesen, Justiz und Politik, usw.). Das kann langfristig nicht funktionieren und muß dringend geändert werden, zumal ein Großteil der Weltbevölkerung am Rande des Existenzminimums lebt, dringend Versorgungsgüter benötigt und nicht an qualifizierten Produktionsprozessen beteiligt ist.

In der folgenden Kabinett-Ausgabe möchten wir Sie mit dem Bericht „Projekte, die die Welt verändern“ mit auf die Reise von Europa nach Asien mitnehmen und Ihnen veranschaulichen, welch enormes Potential in einer gemeinschaftlich getragenen Weltwirtschaftspolitik zum Wohle der Menschheit und Sicherung des Weltfriedens schlummert.

Journal Kabinett 1/2017, Seite 34-35

Schadstoffe in Lebensmitteln und Entwicklung der Landwirtschaft. Eine kritische Betrachtung

Meldungen über Giftstoffe in Lebensmitteln und Getränken, in Textilien, Mobiliar, Baustoffen, Schadstoffe in der Luft, eigentlich in allem, was uns umgibt, verunsichern unsere Mitmenschen derart, dass sie ständig in Angst leben, davon gesundheitlich geschädigt zu werden. Ministerien und deren Behörden fordern deswegen Grenzwerte für die Unbedenklichkeit eines Produktes, die in Zusammenarbeit mit Forschungsinstituten, Landwirtschaftskammern und Produktherstellern überprüft und wissenschaftlich abgesichert werden müssen. Der Einsatz von Pflanzenschutzmitteln wird erst nach langjährigen Freilandversuchen mit wissenschaftlich fundierten Analysenmethoden vor einer Zulassung überprüft und erst nach einer Unbedenklichkeitsbescheinigung zugelassen.

Dennoch werden immer häufiger Meldungen veröffentlicht, die von “Schadstoffbelastungen“ in Lebensmitteln und Gebrauchsgegenständen berichten.

Aktuell gibt es eine kontroverse Diskussion über die Weiterzulassung von Glyphosat, ein überwiegend in der Landwirtschaft eingesetztes Unkrautbekämpfungsmittel, dem eine kanzerogene (krebsauslösende) Wirkung unterstellt wird. Nach bisher 30 Jahren im Einsatz konnte bei vorgeschriebener Anwendung und sachgemäßer Ausbringung jedoch kein Beleg dafür erbracht werden.

Es geht auch mehr um Rückstände des Wirkstoffs im Ernteprodukt. In Textilfasern und im Bier wurde dieser, wie in den Medien berichtet, nachgewiesen. Wäre die Untersuchung vor 40 Jahren durchgeführt worden, würde die Probe als unbelastet gelten. In dem oben genannten Zeitraum hat sich nämlich die Analysentechnik und somit die Nachweisgrenze von Mikrogramm (1 millionsstel Gramm) auf Nanogramm (1milliardstel Gramm) und Picogramm (1 billionstel Gramm) bis hin sogar in molekulare Strukturen verfeinert, so daß nun Stoffe erfaßt werden, die in geringsten Spuren vorhanden sind und die Konsumenten nicht abschätzen können, ob dennoch keine Gesundheitsbeeinträchtigung besteht. Reinprodukte gibt es in der Natur nicht, sondern sind stets mehr oder weniger stark kontaminiert mit Begleitstoffen.

Selbst in “Bioprodukten“ kann nahezu das gesamte Periodensystem der Elemente nachgewiesen werden, die je nach ihrer Konzentration nicht oder doch gesundheitsgefährdent sind. Die Sensibilität und Stoffwechseltoleranz der Konsumenten ist auch stark von deren genetischen Konstitution

abhängig. Bestes Beispiel dafür ist die Nitratunverträglichkeit bei Säuglingen mit der genetisch veranlagten Säuglingsmethämoglobinämie, die eine Begrenzung von 50 mg pro Liter erforderte.

Ab welcher Konzentration ein Stoff in einem Produkt gesundheitsschädliche Wirkung hat, bzw. haben könnte, wird durch EU-weite Grenzwertfestlegung geregelt und auch international von UN-Gremien gefordert, um auch bei einer geringsten Auffälligkeit den Verdacht einer negativen Beeinträchtigung auszuräumen.

Allein der Hinweis, dass Pflanzenschutzmittel, soganannte Pestizide (Begriff suggeriert giftig und Pest verursachend) und Unkrautbekämpfungsmittel in unseren konventionell erzeugten Lebensmitteln nachgewiesen werden, fördert den Markt “Ökologische Produktion“ als Alternative einer Produktionsweise ohne chemische Pflanzenschutz- und Düngemittel. Dennoch muß der Mineralstoffentzug durch das Ernteprodukt ausgeglichen werden, um eine weitere Bewirtschaftung zu ermöglichen. Dieses erfolgt mit tierischen Exkrementen (Mist und Gülle) und Ernterückständen, wie es in der Vergangenheit in der Kombination Ackerbau, Grünland und Viehhaltung üblich war. Erst durch den Einsatz chemischer Düngemittel konnten jeweils Acker-, Pflanzenbau- und Grünlandbetriebe entstehen und somit in Folge auch Massentierhaltungsbetriebe, die ihre Futtermittel auf dem Markt zukaufen konnten. Damit war der Grundstein für eine industrielle Landwirtschaft gelegt worden. Hohe Produktionsleistung in Quantität und Qualität sind Marktforderungen einer beängstigend wachsenden Weltbevölkerung, die nur noch großflächig mit hohem technischen Einsatz und mit Massentierhaltung erreichbar sind.

So erklärt es sich auch, dass neue Erkenntnisse der Biotechnologie große Bedeutung erlangen, wie sich in der Anwendung der Gentechnik, insbesondere bei der Futtermittelindustrie in Form von Gen-Mais zeigt. Durch Resistenzen gegen Schädlingsbefall wird der Ernteertrag erheblich gesteigert und trägt somit zur Ertragssicherheit bei.

Produktionstechnische Optimierungsverfahren dürfen jedoch ökologische Aspekte nicht verdrängen und müssen zukunftsbezogen zwischen Ökologie und Ökonomie ausgewogen werden. Auch die Abkehr von originären Zielen der Landwirtschaft zur Lebensmittelerzeugung hin zu “Energiewirten“ sollte nachdenklich stimmen, da Flächen für die Energieproduktion (Gas und Treibstoffe) der Nahrungs- und Futtermittelproduktion entzogen werden, eine Folge, die auf die aktuelle Energiepolitik der Bundesregierung zurückzuführen ist.

Journal Kabinett 4/2016, Seite 20-21

Pumpspeicherwerke – Die Lösung für das Gelingen der Energiewende?

Wie viele Pumspeicherwerke benötigt Deutschland zur Versorgungssicherheit nach Verzicht auf die konventionelle Energieerzeugung (fossile Energieträger und Kernenergie)?

Deutschland benötigt im Jahr durchschnittlich 610 Milliarden Kilowattstunden Strom. Das ist ein Verbrauch von täglich etwa 1,68 Milliarden Kilowattstunden (1.680.000 Megawattstunden).

Nach der Energiewende will Deutschland ohne Atomstrom und ohne fossile Energieträger nur noch mit Wind- und Solarenergie, Energie aus nachwachsenden Rohstoffe, Biogas und Wasserkraft den Strombedarf decken.

Bei Windstille und fehlender Solarnutzung fällt jedoch der größte Anteil an der Energieerzeugung aus, so dass Speicher den Versorgungszeitraum überbrücken müssen.

Am Beispiel der im Jahr 2011 geplanten Aufstockung des Rurstausees in der Eifel um ein weiteres Oberbecken mit einer Leistungssteigerung auf 640 Megawatt, mit der bei ca. 6 Stunden Betriebsbereitschaft (640 x 6 ) 3.840 MWh Strom bereitgestellt werden kann, soll veranschaulicht werden, wie viele in dieser Größe zur Überbrückung des Strombedarfs bei Flaute und ausbleibendem Solarstrom benötigt werden.

Um ganz Deutschland einen Tag mit Pumspeicherstrom zu versorgen (wenn kein Wind weht und keine Sonne scheint), nämlich 1,68 Millionen Megawattstunden, müssen: 1.680.000 MWh geteilt durch 3.840 MWh = rund 440 Pumspeicherwerke des Typs Rurstausee zur Verfügung stehen. Wenn das Wasserspeicherbecken leer ist, werden zur Füllung ca. 8 Stunden und ein Mehrenergieaufwand von einem Viertel des Nutzens von 3.840 MWh (ca. 1000 MWh) 4.800 MWh benötigt, um das Becken wieder zu füllen. Dieser Strom muß natürlich vor der nächsten Flaute zur Verfügung stehen.

weiterlesen

Muttertag war EEG-Zahltag

Mit diesem Bericht wollen wir über die Folgen informieren, die durch den politisch geforderten Ausbau der Solar-und Windenergie zur Umstellung der bisherigen fossilen und kerntechnischen Stromerzeugung entstehen.

Es dürfte hinlänglich bekannt sein, dass bei Windflaute und Dunkelheit kein und bei bedecktem Himmel nicht ausreichend Strom produziert werden kann. Andererseits kann Starkwind nicht genutzt werden, weil statische und sicherheitstechnische Probleme es nicht zulassen. Da Deutschland nicht gerade zu den sonnigen Ländern Mitteleuropas zählt und auch mit keiner kontinuierlichen Windenergienutzung rechnen kann, sind die “ertragsreichen Zeiten“ dieser Energiequellen sehr begrenzt. Kommt es jedoch zu einer gleichzeitig hohen Windkraft-und Solarenergieeinspeisung, kann in Spitzen die Leistung von bis zu 40 Großkraftwerken (über 40.000MW) im Netz zur Verfügung stehen. Genau das bereitet den Netzbetreibern große Probleme. Auch das europäische Verbundnetz, aber größtenteils regional angekoppelte Verteilernetze sind nicht auf eine plötzliche Stromeinspeisung in dieser Größenordnung ausgelegt. Ein weiteres Problem besteht in der Vorrangigkeit der Einspeisung, da die “alternativen Energien“ bevorzugt gegenüber den “konservativen“ eingespeist werden dürfen, was kaum noch mit den beängstigt zunehmenden Netzeingriffen zu bewerkstelligen ist und vorraussichtlich schon bald zu einem Stromausfall führen kann. Konventionelle Kraftwerke müssen in einem solchen Fall in immer größerer Zahl ganz schnell runtergefahren werden und stehen somit stets nur als Reservekraftwerke zur Verfügung, wenn durch Wind-und Solarenergie die Absicherung der Grundlast nicht gewährleistet ist. Derartig betrieben Kraftwerke können nicht mehr wirtschaftlich arbeiten, da sie einerseits nur noch zur Deckung der Residuallast eingesetzt werden, aber andererseits unverzichtbar bereitstehen müssen.

weiterlesen

Kategorien EEG

Kohlenstoffdioxid (CO₂) – Eine Bestandsaufnahme

Dr. agr. Rainer Six

Kein anderes chemisches Element steht so im Fokus der Öffentlichkeit wie der Kohlenstoff (C), der bei Verbrennung das angeblich “klimaschädliche“ Kohlenstoffdioxid (CO₂) entstehen lässt. Diese Bestandsaufnahme soll veranschaulichen, in welchen Mengen Kohlenstoff bzw. Kohlenstoffdioxid vorhanden ist, wie es entsteht und welche Austausch,- Freisetzungs- und Fixierungsprozesse stattfinden.
Die durch alle menschlichen Aktivitäten direkt (durch Verbrennung fossiler Energieträger) oder indirekt (durch technische und chemische Prozesse) freigesetzten CO₂- Emissionen betragen, wie auch das Bundesumweltamt bestätigt, weniger als 3% der globalen Gesamtmenge. Im Umkehrschluss bedeutet das, dass 97% des CO₂ nicht durch Menschen verursacht wurden, sondern natürlichen Ursprungs sind und somit auch nicht in ihrer “klimaschädlichen“ Wirkung vom Menschen beeinflusst werden können.
Da die Mengenangaben mehr oder weniger kalkulatorisch sind und im Vergleich zueinander um mehrere Zehnerpotenzen divergieren, ist es zur Beurteilung der globalen Zusammenhänge ausreichend, die Zahlen auf wenige signifikante Stellen zu runden. Die jährlichen CO₂-Emissionen einzelner Länder liegen im 108 Tonnen-Bereich, die gesamten anthropogenen Emissionen im 1010 Tonnen-Bereich und die globalen Gesamtemissionen im 1011 Tonnen-Bereich.

CO2-Anthropogen_Six

weiterlesen

Nachwachsende Rohstoffe, Erneuerbare Energien und ihr Beitrag zur Energiewende

von Dr. agr. Rainer Six und Dr.- Ing., Dr. rer. pol. Herbert Backhaus

Die den deutschen Stromverbrauchern regierungsamtlich verordnete Energiewende ist die Folge des weder technisch noch wirtschaftlich oder ökologisch (Klimaschutz) begründeten Ausstiegs aus der Kernenergie. Um den deutschen Stromverbrauch zu- künftig decken zu können, sollen vermehrt alternative Energieträger eingesetzt werden. Im Wesentlichen sind dies Wind und Sonne, aber auch nachwachsende Energie-Rohstoffe, die sogenannte Biomasse. Der so alternativ produzierte Strom soll die kerntechnische und fossile Erzeugung ersetzen. Die Versorgungssicherheit jedoch ist aber aufgrund der wetter- und tageszeitabhängigen Verfügbarkeit von Wind- und Solarstrom nicht gegeben. Bei der Stromerzeugung mit Biomasse ist der hohe Flächenverbrauch und der hohe Energieaufwand bei seiner Anpflanzung, Ernte und Verarbeitung in Rechnung zu stellen. Biomasse hat gegenwärtig einen Anteil von ca. 7% am Bruttostromverbrauch in Deutschland. Für die fluktuierende Stromerzeugung aus Wind und Sonne stehen in Deutschland mehr als 60.000 MW an installierter Leistung zur Verfügung. (Dies würde einer Leistung von etwa 54 Kernkraftwerken entsprechen.) Dennoch leisten sie gemeinsam nur einen Beitrag von ca. 12% am Bruttostromverbrauch. Der wetterabhängig aber bedarfsunabhängig erzeugte Strom ist oft zu wenig, aber meist zu viel. Der Überschuß müsste also gespeichert werden, wofür – nach dem derzeitigen Stand der technischen Entwicklung – nur Pumpspeicher-Kraftwerke zur Verfügung stehen oder muß bei Überschuß zu Dumpingpreisen, unentgeltlich oder sogar mit Negativpreisen an der Strombörse gehandelt werden. Die in Spitzen erzeugten Strommengen, die im eigenen Land auch bei Volllast nicht genutzt werden können, werden als “Exportschlager“ gepriesen.

weiterlesen