Alles Nazis – ausser Mutti! Dritter Teil

Und so rollte der Wagen an einem ungewöhnlich heissen Apriltag langsam durch den immer dichter werdenden Verkehr auf einer vierspurigen Bundesstrasse durch die baden-württembergische Landeshauptstadt, passierte das Landesverkehrsministerium, über dessen Fassade in voller Breite ein Banner gespannt war, auf dem zu lesen stand: “200 Jahre Fahrrad. Wir haben’s erfunden“ und während der Fahrer sich noch fragte, wer wohl mit „Wir“ gemeint ist, scherte vor ihm ein Auto aus, er gab also ein klein wenig Gas, um die Lücke zu schliessen, was den Achtzylinderblock beinahe genüsslich wummern liess, der Fahrer grinste, kurbelte das Seitenfenster herunter und nestelte jetzt nach einer der Zigaretten, die er soeben an der Tanke gekauft hatte, zündete sie an, blies den Rauch durch das geöffnete Seitenfenster und schaltete dann – nein, nicht das Radio an, denn wenn es einen zuverlässigen Weg in die vorzeitige Verblödung gibt, das wusste er genau, dann ist das Radiohören, selbst dann, wenn man nicht SWR hören sollte – den alten Kassettenrekorder an und spulte das MixTape im automatischen Suchlauf so lange vor, bis endlich der Geräuschteppich, das Pfeifen, das Geschrei und das Johlen, einer Menschenmenge aus den alten Lautsprechern knisterte, die 1969 irgendwo in den USA grösstenteils im Drogenrausch einem Konzern beiwohnte, und aus der sich jetzt eine Zuschauerin akustisch herausschälte, die zwei-, dreimal die Aufforderung „Paint It black“ wie bei einem Wunschkonzert in Richtung Bühne lallte, von welcher man nur ein kurzes „I’m ready!“ von wem auch immer vernahm, dann setzte die erste Gitarre ein, nach ein paar Akkorden das Schlagzeug, dem auf den Takt genau zeitgleich die Zweite Gitarre und der Bass folgen sollten, die Eingangssequenz eines Songs, der in seiner ursprünglichen Studioversion aufgrund des behämmerten Backgroundgesangs eigentlich unhörbar war und ist, da die Band seinerzeit meinte, unbedingt mit hippiesken Spielereien einer Konkurrenzband aus Liverpool mithalten zu müssen, der aber in dem Hier und Jetzt eines Konzerts im Sommer 1969, vielleicht auch aufgrund des damals neuen Gitarristen und ohne behämmerten Backgroundgesang und zudem entkleidet von zeitgeistigem SchnickSchnack eine irgendwie rohe und zeitlose Wirkung entfaltete, die dem Hier und Jetzt auf einer Bundesstrasse durch die baden-württembergische Landeshauptstadt an einem ungewöhnlich heissen Apriltag einen… jaaah… seltsamen Dreh gab, so sahs jedenfalls der Fahrer, dessen Zeige- und Mittelfinger der rechten Hand den Takt auf das hölzerne Lenkrad trommelten, als der Sänger in diesem doppelten Hier und Jetzt endlich anhob:

“Please allow me to introduce myself
I’m a man of wealth and taste
I’ve been around for a long, long year
Stole many a man’s soul to waste“,

der Fahrer lachte vergnügt, blies erneut Zigarettenrauch aus dem Seitenfenster, und – der Verkehr war inzwischen noch dichter geworden – nahm in der Ferne die Verkehrsampel wahr, die gerade auf grün sprang, während…

Chef?

…der Sänger auf dem MixTape die nächste Strophe zum besten gab:

„Pleased to meet you
Hope you guess my name
But what’s puzzling you
Is the nature of my game“,

der Fahrer schien nun ein wenig nervös zu werden, vielleicht wegen der grünen Ampel, denn diese Ampel war die letzte Ampel vor dem gottverdammten Heslacher Tunnel, welcher die vier Spuren der B14 in sich zu zwei Spuren verengen würde, der Tunnel, 1991 fertiggestellt, war somit eigentlich seit seiner Freigabe nichts anderes als ein Nadelöhr, der zwar eine seiner vorgesehenen Aufgaben, nämlich den Verkehr aus den Wohngebieten, durch die der Verkehr vor Eröffnung des Tunnels rollte, herauszuhalten, erfüllte, aber bei der anderen Aufgabe, den Stadtverkehr zu entlasten, indem er den Pendlerverkehr zu den Hauptverkehrszeiten schnellstmöglich aus der Stadt leitete, erwartungsgemäss versagte, da er nicht nur eigentlich schon seit seiner Fertigstellung hoffnungslos unterdimensioniert war, weshalb sich nun regelmässig zu den Hauptverkehrszeiten ein miefiger Stau vor der letzten Ampel vor dem Tunnel bildete, das nervte!, das nervte die Pendler, die aus der Stadt auspendeln, das nervte die Anwohner an der B14, die nicht nur unbedingt zu den zahlungskräftigsten Mietern zählten, das nervte jetzt schon seit Jahrzehnten beinahe jeden Werktag und das nervte eben, weil die zweite eigentlich geplante Röhre, welche den Stadtverkehr und die B14 und die Pendler und die Anwohner wirklich hätte entlasten können, niemals gebaut worden war, weil man – joah – irgendwann festgestellt hatte, dass das Gestein in dem Tunnelberg ziemlich problematisch ist, so wie man auch n paar Jahre später festgestellt hatte, dass das Gestein in den Stuttgart21-Tunnelbergen ziemlich problematisch ist und die Tunnelbohrungen deshalb auch ziemlich teuer werden könnten…

CHEF?

.., was dann aber seltsamerweise anders als beim Heslacher Tunnel niemanden juckte, weshalb man momentan Milliarden verbuddelt, damit irgendjemand irgendwann mal schneller und bequemer von Paris nach Prag oder zurück verreisen kann, während sich jeden Scheisswerktag jetzt schon seit Jahrzehnten Pendler und Anwohner vor der letzten Ampel vor einem einröhrigen Tunnel nerven, der zu den meistbefahrensten in Europa gehört, und den man einfach einröhrig weitergebaut hatte, als man feststellte, dass zweiröhrig bauen für die Deppen von Pendlern und Anwohnern an der B14, die in diesem Bereich auch Hauptstätter Strasse heisst, weil sie einst – zack – zur Hinrichtungsstätte führte, viel zu teuer ist, aber mit nur einer Röhre immer noch zielführend und günstig genug für die sehr begehrten und sündhaft teuren Wohnlagen der sehr zahlungskräftigen Immobilienbesitzer in der Halbhöhe am Heslacher Hang, an welchem die B14 vor dem Tunnelbau mit so ungefähr 50.000 Autos täglich vorbeikratzte und in deren teuer in den Hang betonierten Garagen sich mittlerweile Teslas als Dritt- oder Viertwagen einfinden, damit Mutti mal n bisschen ökomässig renommieren kann, wenn sie die Kleinen vom Privatkindergarten abholt, während das einstmals mietgünstige und jetzt verkehrsberuhigte Heslach unten im Talkessel nach und nach gentrifiziert wird und man den Deppen von Pendlern und B14-Anwohnern einen einröhrigen Tunnel – zack – hingedrückt hat, dessen immer mal wieder angeregte Erweiterung von Sozen und Grünen regelmässig blockiert wurde – ach – mittlerweile war die Ampel schon ziemlich lange grün, und wie das so ist, wenn Ampeln schon ziemlich lange grün sind, hat das Auswirkungen auf das Verhalten von Autofahrern, also zumindest auf die Fahrer, die irgendwie mitbekommen haben, dass die Ampel schon ziemlich lange grün ist, und die man so ungefähr in drei Typen einteilen kann, Typen wie den Fahrer, die angesichts von Ampeln, die schon ziemlich lange grün sind, entschlossen beschleunigen, damit sie noch irgendwie über den Zielstrich brettern, bevor das Scheissding wieder rot wird, dann die Überangepassten, die tatsächlich nur noch wenige Meter vor ner grünen Ampel, die schon ziemlich lange grün ist, bremsen, weil sie könnte ja gleich rot werden und schliesslich sone Mischung aus den beiden ersten Typen, die Zuckschwestern, denen eine grüne Ampel, die schon ziemlich lange grün ist, fast schon seelische Qualen bereitet, die denken sich nämlich dann: OHGOTTschonwiedersoneAmpeldieschonziemlichlangegrünis!OOOOHHGOTTwasmachichdennjetzt? GOTTOHGOTTOHGOTT!BremsenNein!GasgebenNein!Nein!Doch!Nein!Doch!Nein!Doch! – BLITZ – SCHEISSE!!!!!!!!!,

der Fahrer hatte diesmal Pech, vor ihm bremste sich ein Überangepasster bei Gelb über die Ampel und sein Achtzylinder kam bei Rot zum Stehen, der Fahrer schickte dem Überangepassten noch ein paar Flüche hinterher, betrachtete dann die nette Blondine im Wagen rechts von ihm verstohlen durch die Sonnenbrille, überlegte, ob er mal kurz rüberlächeln sollte, erkannte dann aber, dass sie in einem Elektroauto sass, was der ganzen Angelegenheit direkt am Haltestrich der roten Ampel schlagartig eine andere und gefährlichere Bedeutung gab, hatte er doch von den sagenhaften Beschleunigungswerten der Elektromobilität gehört, beruhigte sich dann aber mit dem Gedanken, dass Menschen, die jetzt schon Elektroautos fahren, nur selten Interesse an Beschleunigungsrennen haben, zumal, wenn sie in einem Renault ZOE sitzen, starrte aber dennoch ein wenig nervös auf die Ampel, drückte das Gaspedal nur eine Nanosekunde nach dem Erlöschen des Rotsignals voll und ganz durch, ignorierte die durchdrehenden Hinterreifen, schaltete dann in den Zweiten und schoss über die Kreuzung, zog den Wagen auf die rechte Spur, fuhr in den Heslacher Tunnel ein und betrachtete im Rückspiegel die nette Blondine im Renault ZOE, die ihm den Vogel zeigte und dann erst gemächlich losfuhr, der Fahrer atmete erleichtert auf, schnippte die Zigarettenkippe aus dem Fenster, drehte den Kassettenrecorder lauter und freute sich auf die bald einsetzenden Gitarrensoli, der Sänger sang:

„Let me please introduce myself
I’m a man of wealth and taste
And I laid traps for troubadours
Who get killed before they reached Bombay“.

CHHEEEEF?!

Mhmja?

Was issen jetzt?

Was sollen sein?

Na, mit der Fortsetzung! Die Leser warten.

Leser? Das liest jemand?

Ich glaub schon…

Ähä, also gut, zur Jahrtausendwende, als Rot-Grün noch an der Regierung und der einzig wahre Umweltminister, Jürgen Trittin, noch in Amt und Würden war, wurden unter anderem der Stickstoffdioxid (NO2)-Jahresmittelwert von 40 Mikrogramm auf den Kubikmeter Luft als verbindlicher Grenzwert von der EU-Kommission vorgeschlagen und von den EU-Mitgliedstaaten beschlossen, von der EU 2008 nochmals bestätigt und sodann in nationales Recht transferiert, weshalb der Jahresmittelwert  seit 2010 eigentlich einzuhalten ist. 40 Mikrogramm sind 40 Millionstel Gramm, also ein äusserst geringer Wert eines Stoffes, der zwar auch natürliche Ursachen hat, den man aber durchaus als alten Bekannten der Menschheitsgeschichte bezeichnen kann, denn spätestens nachdem unsere Vorfahren lernten, das Feuer zu beherrschen, verursachten Sie zwangsläufig immer auch NO2-Emissionen, denn diese werden, wie andere Giftstoffe auch, in erster Linie bei Verbrennungsprozessen fossiler Brennstoffe oder auch Holz freigesetzt. In diesem Sinne ist die NO2-Emission kein neues Problem sondern dürfte in früheren Epochen, beispielsweise in den engen Gassen antiker oder mittelalterlicher Städte, in Zeiten also, in denen man fröhlich mit Holz oder Kohle heizte und kochte, viel ausgeprägter gewesen sein. Früher war nämlich nicht alles besser und sauberer und natürlicher, schon gar nicht 1952 in London, als eine furchtbare Smog-Katastrophe, die in ihren gewaltigen Ausmassen mit der heutigen Situation nicht im mindesten vergleichbar ist, tatsächlich vielen Menschen das Leben kostete.

Aber NO2 ist doch giftig.

Ja, aber das sind andere Stoffe, denen wir täglich ausgesetzt sind, auch. So ist Sauerstoff unter bestimmten Bedingungen giftig und kann Wasser in hohen Dosen sogar tödlich sein. Der menschliche Organismus hat während der Evolution gelernt, mit den Stoffen in seiner Umwelt auszukommen, ja diese sogar für sich zu nutzen, wenn sie eine bestimmte Konzentration nicht unter- oder überschreiten. Es ist also wie immer: Die Dosis macht das Gift.

Und was ist die toxische Dosis NO2?

Tja, wenn du Teile der Grünen fragst, unbedingt 40 Mikrogramm im Jahresmittel, denn das war ihr Hebel und auch der letzte Strohhalm, denn im Zuge des jahrelang anschwellenden Dieselschmierentheaters, das sie aufzogen, und welches unbedingt seinen Höhepunkt vor dem Bundesverwaltungsgericht finden musste, wurden die Feinstaubwerte in den Städten immer besser, wenn man mal vom Stuttgarter Neckartor absieht, wo man aufgrund der sehr sehr besonderen Messsituation noch einige Jahrzehnte wird warten müssen, bis auch dort die Grenzwerte nicht mehr gerissen werden. Die NO2 Belastung verbesserte sich zwar auch, allerdings zögerlicher und zur grossen Freude der Umweltfreude gab es noch ein paar Grenzwertverletzungen an verkehrsmässig stark belasteten Meßstationen, als es dann endlich zum grossen Finale in Leipzig kam und Jürgen Resch, der Mann, der sich auf einer Mission wähnt, aber letztlich doch nur der nützliche Vollstrecker war und ist, seinen Prozess gewann, als ein von verschwurbelten pseudowissenschaftlichen Studien in die Enge getriebener und von der Politik verlassener Richter Fahrverbote in den Städten prinzipiell erlaubte.

Der nützliche Vollstrecker?

Ja, man brauchte jemanden, der Fakten schafft und dem es gleichzeitig so überhaupt nichts ausmacht, sich dadurch zum mistgehassten Mann in Deutschland zu machen. Teile der Grünen munitionierten Resch, wollten aber lieber und aus sehr nachvollziehbaren Gründen sehr weit weg sein, wenn der Pistolenrauch aufzog, denn das hätte sie ja Wählerstimmen kosten können, also spielte man lieber über Bande und nutzte dazu die Instrumente, welche die SPD ihnen netterweise überlassen hatte. Ganz entscheidend waren in diesem Zusammenhang das Bundesumweltministerium und besser noch: das Umweltbundesamt. Denn so ein Ministerium wird ja immer auch als parteipolitisch eingefärbt wahrgenommen, da ist so ne Behörde wie das Umweltbundesamt (UBA) schon praktischer, denn bei Amt denken die Leute immer an Beamte und die sind ja natürlich seriös und unparteilich und wenn sie dann noch in einer Behörde sitzen, die das Wort „Umwelt“ im Namen trägt, sowieso nicht mehr weit entfernt von der Heiligsprechung. Und so ist es natürlich absoluter Zufall, dass das UBA, welches zwischen 2009 und 2013 von Jochen Flasbarth, einem alten Bekannten von Jürgen Trittin, geleitet wurde und ab 2013 wieder von einer SPD-Verwaltungstante geführt wird, 5 Tage vor dem Urteil des Bundesverwaltungsgerichts Informationen durchsickern liess und diese durchgesickerten Informationen auch bestätigte, wonach es über eine hauseigene Analyse oder Studie verfüge, die beweise, dass 2014 6000 Menschen an Herz-Kreislauf-Erkrankungen gestorben seien, die von geringen NO2-Konzentrationen ausgelöst worden sind, denn solche Neuigkeiten aus einem Bundesamt setzen auch in diesen bewegten Zeiten natürlich keinen Bundesverwaltungsrichter unter Druck. Und das ist schon sehr erstaunlich, dass ein Bundesamt, das ja eigentlich nix anderes ist als eine Verwaltungsbehörde, dazu „instrumentalisiert wird, um einen Bundesverwaltungsrichter zur „richtigen“ Entscheidung zu “bewegen”, zumal die „Studie”, welches das UBA dann erst nach der Gerichtsentscheidung offiziell veröffentlichte, von schon sehr speziellem Charakter ist, denn deren Autoren forschten nicht direkt am Objekt, sie gingen nicht in die Leichenschauhäuser der Republik und obduzierten im Jahre 2014 alle frisch Verstorbenen, um sodann nach zweifelsfreier Diagnose 6000 Todesopfer dem Killer NO2 zuschreiben zu können, vielmehr bedienten sie sich eines Konzeptes, das von der Harvard School of Public Health für die Weltbank und später auch für die Weltgesundheitsorganisation (WHO) entwickelt worden ist, und welches die „Burden of Disease“ oder auf deutsch: die „Krankheitslast” von Gesellschaften und/oder Nationen der Welt quantifizieren, bzw. in Zahlen ausdrücken sollte. Hierzu bedient sich das Konzept unter anderem auch einer Messmethode namens DALY oder auch „disability-ajusted life years“. DALY ist keine per se medizinische Messmethode sondern eher ein Instrument der quantitativen Sozialforschung, das eigentlich ganz einfach funktioniert, man erfasst die Krankheiten in einer bestimmten Nation, beispielsweise einem afrikanischen Staat, ermittelt das Alter der an diesen Krankheiten Verstorbenen, zieht dies in der Summe von der allgemeinen Lebenserwartung ab und erhält sodann neben der Gesamtsumme der in einem Jahr an den verschiedenen Krankheiten Verstorbenen auch die Summe der „verlorenen Lebensjahre“, also die „nicht gelebten” Lebensjahre aller Verstorbenen bis sie das Alter der allgemeinen Lebenserwartung erreicht hätten. Die WHO erhebt diese Daten mittlerweile und auf diese Weise schon seit Jahrzehnten. Auf Wikipedia kann man diesbezüglich nachlesen:

„Sie (die WHO) quantifiziert und untersucht 135 Krankheiten und Behinderungen, und versucht anhand dieser Daten weltweit die Ursachen für Sterblichkeit und Krankheiten zu ergründen. Ziel ist es, anhand dieser Daten, Prognosen zu erstellen, die eine weltweite Verbesserung der Gesundheitszustände erlauben.”

Das WHO-Projekt verfolgt mit diesem typisch amerkanisch-burschikosen “Burden of Disease“- Ansatz im Grunde zwei Ziele, zum einen den Grad der Gesundheit von unterschiedlichen Ländern durch standardisierte Erfassung untereinander vergleichbar zu machen, wodurch auch erkannt werden kann, dass bestimmte Entwicklungen, welche in bestimmten Ländern schon abgeschlossen sind, in anderen noch bevorstehen könnten, was eine bessere Prognose und Lenkung dieser Entwicklung erlaubt und zum anderen, wenn entsprechender Handlungsbedarf identifiziert worden ist, allein schon durch die einfach zu verstehende Prägnanz und Wucht der puren Anzahl an verlorenen Lebensjahren oder der vorzeitigen Todesfälle einen starken Druck auf die politischen Entscheidungsträger auszuüben, die eine differenzierte, fundierte und wirkliche valide klinische Studie wohl niemals lesen und geschweige denn verstehen würden. Das „Global Burden of Disease“-Konzept mit seiner Messmethode DALY ist in dieser Hinsicht also auch ein politisches Instrument, entwickelt unter anderem von der Weltgesundheitsorganisation, um eine möglichst effiziente Lobbyarbeit im eigenen Namen und für bessere Gesundheit zu betreiben und wurde vielleicht gerade aus der Frustration heraus ersonnen, dass differenzierte und ausgewogene Aufklärung der entscheidenden Politiker in der Vergangenheit immer nur suboptimale Erfolge zeitigen konnte. Dafür, für ihre politischen Ziele, die sicherlich gut gemeint sind, nimmt diese Messmethode auch eine gewisse statistische Unschärfe in Kauf, denn natürlich muss diese Methode von einem Idealtypus der Gesundheit ausgehen, wenn sie unterstellt, dass ein Jeder, der an einer bestimmten Krankheit verstirbt, ohne diese Erkrankung auch das Alter der in seinem Land statistisch errechneten allgemeinen Lebenserwartung erreicht hätte, was aber ganz sicher nicht der Fall gewesen wäre. Damit stochert diese Methode im Konjunktiv des “was-vielleicht-gewesen-wäre” herum, erklärt diese aber zur wissenschaftlichen Gewissheit, auch weil die Studien über die Krankheitslasten verschiedener Länder eben massgeblich sein können für die Zuteilung von Hilfs- und Entwicklungsgeldern der internationalen Gemeinschaft und man sich deshalb sozusagen in Konkurrenz zueinander befindet, was die Maximierung des politischen Drucks durch Quantifizierung des Elends angeht. Das Problem des „Stocherns im Konjunktiv“ wurde in den letzten Jahren noch verschärft – das Projekt der „Globalen Krankheitslast“ läuft seit Anfang der 1990er Jahre – da die weltweit erhobene Datenmenge durch immer weitere Messungen in den letzten Jahrzehnten immer mehr erweitert und verfeinert worden ist und somit inzwischen die Dimension eines „Health Big Data“ angenommen hat, welches „wissenschaftlich“ mittels Formeln und Algorithmen durchkämmt, analysiert und quantifiziert wird, was eine Nachprüfbarkeit durch Aussenstehende mehr und mehr verunmöglicht, allein schon wenn man bedenkt, dass das quantifizierte Ergebnis der dürren Zahl der „verlorenen Lebensjahre“ letztendlich aus einem Wust von Daten und somit aus den Schicksalen von Milliarden von Menschen destilliert worden ist. Wenn man auf diese Weise forscht, wird die Mauer der Intransparenz fast automatisch immer höher und höher, sodass irgendwann nur noch wenige Eingeweihte wirklich „verstehen“, wie das Messergebnis der „verlorenen Lebensjahre“  oder der „vorzeitigen Todesfälle“ zustandekommen ist, was diesen Eingeweihten nicht nur hinsichtlich der politischen Wirkung ihrer Arbeit eine gewisse Macht verleiht und von der man eben als Aussenstehender irgendwann nur noch hoffen kann, dass – Don’t be evil! – diese nicht missbraucht wird. Aber wie das nun mal so ist im Leben, ziehen doch bestimmte Intransparenzen immer auch gewisse Begehrlichkeiten nach sich und so überlegten sich irgendwann die üblichen Verdächtigen so ab Ende der 1990er Jahre, ob und wie man das Konzept der Krankheitslast in Verbindung mit der Messmethode DALY erweitern könnte, um auch Aussagen über „umweltbedingte“ Krankheitslasten, also Krankheiten die durch Umweltgifte ausgelöst werden, treffen und in „verlorene Lebensjahre“ oder noch besser „vorzeitige Todesfälle“ quantifizieren zu können. Allerdings gabs dabei ein kleines Problemchen.

?

Sie mussten das Pferd gewissermassen beim Schwanz aufzäumen. Bei der herkömmlichen Methode der blossen „Krankheitslast“ identifizierte man bestimmte Krankheiten und schloss dann auf deren Ursachen, um Präventivmassnahmen entwickeln zu können, bei der abgewandelten Methode der „umweltbedingten Krankheitslast“ hat man zunächst nur die Ursachen, die Umweltgifte wie beispielsweise Stickstoffdioxid, und musste nun einen Zusammenhang herstellen zu möglichen Krankheiten, die durch Umweltgift ausgelöst werden können. Die in Frage kommenden Krankheiten sind aber zumeist Krankheiten, die sehr viele Ursachen gleichzeitig haben können, wie beispielsweise kardiovaskuläre Erkrankungen, also Herz-Kreislauf-Erkrankungen, die durch Rauchen, Alkohol, zu wenig Bewegung, Fettleibigkeit, genetisch bedingte Anfälligkeit, Bluthochdruck, erhöhte Bluttfettwerte, Stress, Alter usw. usw. bedingt werden. Aus diesem Ursachen-Cocktail nun ein einziges Umweltgift als alleinigen Verursacher nur mit den Mitteln der Statistik zu isolieren, ist eigentlich sehr aufwändig und bedarf einiger gesicherter Vorkenntnisse, über die man jedoch kaum oder noch gar nicht verfügte. Weil aber die WHO nun einmal auch Welt-Lobbyorganisation-Organisation für gute Gesundheit ist, tat man sich dort keinen Zwang an, schwurbelte eine Methode oder besser gesagt eine Formel zusammen, die irgendwas beweisen soll, und stellte sie den europäischen Forschern zur Quantifizierung der „umweltbedingten Krankheitslast” zur Verfügung. Denn das is ja immer so schön praktisch, wenn auf so einer Formel „WHO” drauf steht, vor allem dann, wenn sonst nicht viel an Substanz da ist.

Irgendwann gegen Ende der Nuller Jahre wurde man seitens der üblichen Verdächtigen bei den Grünen wohl auf das neue Konzept der „umweltbedingten Krankheitslasten“ aufmerksam, allerdings waren 2009 die politischen Aussichten eher trübe, die erste grosse Koalition stand vor der Abwahl, eine Mehrheit für Rot-Grün war nicht in Sicht, im Gegenteil die Zeichen standen auf Schwarz-Gelb. Und genau das war wohl der Grund, weshalb Jochen Flasbarth, ehemaliger Nabu-Chef, der bereits von Jürgen Tritten 2003 in das Bundesumweltministerium geholt wurde und auch unter dessen Nachfolger Sigmar Gabriel ab 2005 dort weiter wirken durfte, im August 2009 und nur wenige Wochen vor der sich abzeichnenden Wahlniederlage von Rot-Grün und sicher nicht gegen den Widerstand von Sigmar Gabriel als Chef in das Bundesumweltamt wechselte. Flasbarth ist somit sozusagen eine der „Konstanten“ Jürgen Trittins, dem einzig wahren Umweltminister, die ihm seit seinem regierungsamtlichen Ausscheiden im Jahre 2005 und im Grunde bis heute einen Zugriff auf die Umweltpolitik des Bundes sichern sollten, denn gleich nach dem Antritt Flasbarths im Bundesumweltamt, fing die Verwaltungsbehörde an, sozusagen als Ersatz-Umweltministerium oder deutsche Mini-WHO, Politik zu machen und Mittel dieser Politik waren – genau – „Studien über umweltbedingte Krankheitslasten“. Die erste dieser Studien trug den schönen Titel „Quantifizierung der Auswirkungen verschiedener Umweltbelastungen auf die Gesundheit der  Menschen in Deutschland unter Berücksichtigung der bevölkerungsbezogenen Expositionsermittlung“ und wenn man so etwas liest, will man eigentlich gar nicht mehr wissen, was in der Studie sonst noch so drinne steht, die von dem UBA in Auftrag gegeben und federführend von der gesundheitswissenschaftlichen Fakultät der Universität Bielefeld durchgeführt worden ist, dennoch kann eine Lektüre zumindest partiell erhellend sein. Bereits auf Seite 1 steht zu lesen:

„Alle bisherigen Versuche, den durch diverse Risikofaktoren jeweils verursachten Anteil an der weltweiten Krankheitslast zu bestimmen, sind mit großen methodischen und datentechnischen Schwierigkeiten konfrontiert, weshalb von der WHO bislang zunächst nationale und regionale EBD-Vorgehensweisen entwickelt wurden…“

Und auf Seite 2:

„Bereits die valide Bestimmung von Exposition-Wirkungsbeziehungen, ohne die der umweltbezogene Anteil der Krankheitslast nicht verlässlich aus spezifische Umweltexpositionen zurückgeführt werden kann, ist aufwändig und mit großen Unsicherheiten und Wissenslücken behaftet. Dennoch sind Untersuchungen und Verfahrensweisen, die auf die Ermittlung der umweltbezogenen Krankheitslast (nicht zwangsläufig dem EBD-Ansatz folgend) abzielen, wichtig und notwendig, um Politik und Gesetzgebung Anhaltspunkte zu bieten, Maßnahmen im umweltbezogenen Gesundheitsschutz zu initiieren und den Erfolg von Interventionsmaßnahmen zu messen.“

Eine interessante Studie also, bei welcher der wissenschaftliche Offenbarungseid schon gleich in der Einleitung zu finden ist, denn in normales Deutsch übersetzt, steht dort eigentlich nichts anderes, als dass man keinen blassen Schimmer hatte, wie die Auftragsstudie valide durchzuführen sei, worüber man sich aber mit Hilfe der WHO und dem vermeintlich guten Zweck hinwegtröstete. Offensichtlich war man nicht unbedingt begeistert, die Studie des Auftraggebers durchführen zu „müssen”, zumal dieser anscheinend auch auf eine enge Abstimmung bestand:

„Die Bearbeitung des Vorhabens (sic!) erfolgte in allen Schritten in enger Abstimmung mit dem Auftraggeber. Zur Vorstellung und Diskussion von Zwischenergebnissen und zur Klärung von Fragen fanden deshalb – neben Telefonkonferenzen – in regelmäßigen Abständen Arbeitstreffen der Projektbeteiligten und Vertreter der am Umweltbundesamt beteiligten Arbeitseinheiten. Darüber hinaus wurden die wesentlichen Ergebnisse des Vorhabens am 17. – 18. November 2011 im Rahmen eines zweitägigen Fachgesprächs im Umweltbundesamt Berlin externen Sachverständigen vorgestellt und mit diesen erörtert. Die Anregungen des Fachgesprächs wurden in den Projekt-Endbericht integriert.“ (7)

Und das ist dann selbst für eine „Auftragsforschung“ eher ungewöhnlich, dass der Fortgang des wissenschaftlichen „Vorhabens“, das vielleicht aus Rücksicht auf die wissenschaftliche Reputation der „Forscher“ lieber nicht Studie oder Forschungsprojekt heissen soll, nicht nur Schritt für Schritt mit dem Auftraggeber, dem UBA, abgestimmt, sondern auch noch auf das Endergebnis nach dem schon erfolgten Abschluss des „Vorhabens“ Einfluss genommen wird. Und da fragt man sich dann schon, warum tut sich die Fakultät einer Universität, die ja der Forschungsfreiheit verpflichtet ist, welche zudem durch Artikel 5 des Grundgesetzes als Grundrecht geschützt ist, das an? Und vielleicht ist die Antwort denkbar einfach: Weil die Fakultät der Gesundheitswissenschaft der Universität Bielefeld ebenso wie die ganzen anderen ausser- und inneruniversitären Fakultäten und Institute für Gesundheitsschutz, Umweltschutz, alternative Energien, die in den letzten Jahren und Jahrzehnten wie Pilze aus den Boden geschossen sind, sich fast ausschließlich durch Staatsknete, also durch Mittel aus den Kassen von Bund, Ländern und der EU finanzieren, so wie auch die Forschungsaufträge, welche für diese Institute zusätzliche Mittel generieren, fast ausschliesslich von staatlichen oder EU-Institutionen erteilt werden. Und eigentlich ist es grundsätzlich ja auch in Ordnung, dass der Staat wissenschaftliche Institute unterhält und fördert, so wie es auch in Ordnung ist, dass der Staat diesen Instituten Forschungsaufträge erteilt, um mit besserem Wissen bessere Entscheidungen treffen zu können. Wenn aber eine Verwaltungsbehörde parteipolitisch infiltriert wurde, sodann einen staatlichen Forschungsauftrag vergibt, um dessen pseudowissenschaftliches Ergebnis, die prägnante Zahl der „verlorenen Lebensjahre“ oder der „vorzeitigen Todesfälle“, als politisches Kampfmittel, welches durch die Reputation einer renommierten akademischen Institution überhaupt erst scharf gestellt wird, in juristischen Auseinandersetzungen und zur Manipulation der öffentlichen Meinung zu nutzen, wird es – joah – nicht nur ein bisschen knifflig, was so die „demokratische Willensbildung“ angeht. Das „Vorhaben“ wurde im Juni 2012 abgeschlossen und die veröffentlichten Ergebnisse stiessen auf keine nennenswerte Kritik, was nicht verwundert, war das „Konzept der umweltbedingten Krankheitslast“ noch relativ neu und alle, die sich mit der komplizierten Berechnung eben dieser „umweltbedingten Krankheitslast“ auskannten, schmorten gewissermassen im gleichen staatlich finanzierten Saft, 2013 gab es einen Regierungswechsel, Flasbarth, Trittins „Konstante“, wechselte aus seinem Behördenexil zurück in das wieder SPD-geführte Umweltministerium, Sigmar Gabriel war inzwischen SPD-Vorsitzender und die wissenschaftliche Leiterin des ersten „Vorhabens“, Claudia Hornberg, wurde 2016 auf Vorschlag von Bundesumweltministerin Hendricks in den Sachverständigenrat für Umweltfragen berufen und dort auch gleich von den anderen Mitgliedern instinktsicher zur Vorsitzenden gewählt.

Alles paletti also, das UBA fühlte sich dementsprechend zu neuen „Vorhaben” ermutigt, von denen das viellicht prägnanteste das letzte war, dessen Ergebnis, 6000 Stickstoffdioxid-Tote im Jahr 2014, ein paar Tage vor der Entscheidung des Bundesverwaltungsgerichtes über die Fahrverbote verkündet wurde und welches wir uns deshalb hier vielleicht mal n bisschen genauer anschauen sollten.

Ohje!

Nee, wird nicht so schlimm. Zunächst einmal beginnt jede ordentliche Studie zur Ermittlung oder auch Quantifizierung der umweltbedingten Krankheitslast mit einer zünftigen Literaturrecherche. Sinn dieser Recherche ist es, simpel ausgedrückt, Anhaltspunkte dafür zu finden, ob NO2 eine gesundheitsschädliche Wirkung hat und wenn ja, welche. Hierzu sichten die Autoren eine Vielzahl von medizinischen Studien und anderen Publikationen, die Literaturfunde werden anschliessend in Anlehnung an einen Kriterienkatalog, der von dem ersten UBA-„Vorhaben“ erarbeitet wurde, ausgewählt, ausgewertet, standardisiert und analysiert. Die Autoren identifizieren in der Folge bei Langzeiteffekten, also wenn Menschen über längere Zeit sehr geringe Dosen von NO2 einatmen, lediglich eine  Krankheitsgruppe, für die sie in der Literatur eine „starke Evidenz“ entdeckt zu haben glauben, dass sie, ausgelöst durch sehr geringe NO2-Konzentrationen, zum Tode führt. Und das sind die kardiovaskulären Erkrankungen.

Nach dem dieser Punkt geklärt ist, machen sie sich Gedanken über die konkreten Jahresmittelwerte von NO2, denen Menschen ausgesetzt sein könnten. Hierzu bedienen sie sich der Daten der Meßstationen der Republik und rechnen diese, da diese Meßstationen noch nicht allenthalben im Land rumstehen, auf die ganze Bundesrepublik hoch, wobei sie das ganze Land in 1 km x 1 km grosse Raster unterteilen, denen sie jeweils einen Jahresmittelwert zuschreiben. Das erlaubt ihnen, so glauben sie, die Einwohner in “NO2-Konzentrationsklassen“ einteilen zu können, also eine Statistik darüber zu erstellen, wie viele Menschen in welchen Rastern mit welchen NO2-Konzentrationen wohnen. Und das wiederum führt dann zu einem „NO2-Belastungsindikator“, welcher die durchschnittliche NO2-Belastung jedes einzelnen Bürgers in der Republik oder auch in den Bundesländern abbilden soll. Dann fällt ihnen wohl auf, dass ein Quadratkilometer doch schon ziemlich gross ist, sodass die NO2-Konzentrationen innerhalb dieses Gebietes doch stark schwanken könnten, ausserdem bildet der Jahresmittelwert leider nicht die „Hot Spots“ ab, also die Punkte innerhalb der Quadratkilometer mit besonders hoher NO2-Konzentration und wo es vielleicht auch Einwohner gibt. Um diese Daten mit in die Berechnung einzubeziehen, segmentieren sie eine Modellregion, bestehend aus Berlin, München und Brandenburg, für die bereits kleinteiligere Messergebnisse vorliegen, in noch kleinere Gebiete, und entwickeln auch für diese Modellregion entsprechende Belastungsindikatoren.

Nachdem das auch endlich erledigt ist, wenden sie sich den sogenannten „Endpunkten“ zu. Das sind die “Gesundheits-Ereignisse”, die in einem kausalen Zusammenhang mit der NO2-Belastung stehen sollen. In unserem Fall der Betrachtung der Langzeitwirkung von NO2, ist das die ursachenspezifische Mortalität, also die Sterberate durch NO2-Langzeitbelastung, was bedeutet, dass der gesuchte „Endpunkt“ der Tod und dessen Ursache ist. Denn es gibt ja, so hat es die Literaturrecherche ergeben, eine „starke Evidenz“ dafür, dass NO2 kardiovaskuläre Erkrankungen auslösen kann, die sodann zum Tode führen. Die Autoren benötigen deshalb qualifizierte Daten zur Anzahl der Toten, die in Deutschland 2014 an kardiovaskulären Erkrankungen verstorben sind. Diese Daten liefert die Todesursachenstatistik des Bundes, welche wiederum „…eine Vollerhebung (ist) auf Basis der amtlichen Todesbescheinigungen, die im Rahmen der Leichenschau ausgestellt werden.“ (76)

So weit, so gut. Die Autoren haben nun alles beisammen, was sie brauchen. Einen starken Hinweis auf eine Krankheit, die zum Tode führt und die auf NO2 zurückgeführt werden kann; die bundesweite NO2-Belastung der Einwohner, sogar noch in einer Modellregion; als auch qualifizierte Daten zum definierten Endpunkt, das ist der Tod durch eine kardiovaskuläre Erkrankung. Die Zauberformel der WHO könnte also zuschlagen, gäbe es nicht jetzt schon n kleines Problemchen.

Problemchen?

Ja, genau genommen, gibbs sogar zwei Problemchen. Ein Leichenschau- und ein Einwohner-Problemchen.

Ähää..?

Die Gesundheitsstatistiker als auch die Rechtsmediziner klagen schon seit längerem und immer wieder, dass die Todesbescheinigungen anlässlich der  Leichenschauen fehlerhaft ausgefüllt werden. Das ist eigentlich ein Klassiker der Medizingeschichte, müsste den Autoren also bekannt sein und hat seinen Grund darin, dass der Pflicht zur gewissenhaften Leichenschau durch viele leichenbeschauende Mediziner nicht immer geflissentlich nachgekommen wird. Und deshalb sind die Fehlerquoten in den Totenscheinen erschreckend hoch. Laut einer Untersuchung der Universität Rostock, die insgesamt 10.000 Totenscheine auswertete, waren nur insgesamt 2% fehlerfrei, alle anderen enthielten 3116 schwerwiegende und 35.736 leichte Fehler. Bei einer weiteren Untersuchung in Chemnitz stellte sich heraus, dass nur 30% der durch die Erstleichenbeschauer diagnostizierten kardialen Todesursachen durch eine Obduktion bestätigt werden konnten. Wenn man das auf ganz Deutschland hochrechnet, ergeben sich krass falsche Zahlen, die man nicht als leichte statistische Unschärfen wegdiskutieren kann, da sie die Validität bzw. Gültigkeit des von den Autoren verwendeten Datenmaterials ganz grundsätzlich erschüttern.

Nicht viel anders sieht es bei der NO2-Belastung der Einwohner aus, welche von den Autoren berechnet wird, indem sie der der Zahl der Einwohner in den Rastern bzw. Segmenten eine NO2-Belastung zuweisen. Damit unterstellen sie ein ziemlich statisches Modell, eine Art Menschen-Zoo, in welchem die Einwohner die ihnen zugewiesen Raster niemals verlassen sondern über Monate und Jahre hinweg die errechneten NO2-Konzentration der Autoren einatmen. Das ist natürlich realitätsfern, da so ziemlich niemand über Wochen, Monate und Jahre in seiner Bude sitzen bleibt, weil das Leben nun einmal gewisse Anforderungen wie beispielsweise die Erwerbstätigkeit mit sich bringt, die nur von den Wenigsten zuhause erledigt werden kann. Das heisst, der ganz überwiegende Teil der Einwohner, zumal jene in den stärker belasteten Städten, welche über einen überproportional grossen Anteil an Single-Haushalten verfügen, wechselt zum Zwecke der Erwerbstätigkeit in andere Raster, welche die Autoren aber nicht kennen können und für die sie ganz andere Belastungswerte berechnet haben, und kehren mitunter erst nach dem Feierabend in ihr Heimat-Raster zurück, wo sie bei abflauenden Verkehr des Nachts nur den Minimalwerten der NO2-Konzentration ausgesetzt sind, womit sie eigentlich nie den errechneten Jahresmittelwert erreichen. Dieses „Problem“ wird durch das Einberechnen der „Hot Spots“ in den kleinteiliger segmentierten Modellregionen sogar noch potenziert, da die möglichen Differenzen zwischen Heimat-Segment und Erwerbstätigkeits-Segment naturgemäss noch wesentlich grösser sein können. Somit liegen auch der Berechnung der NO2-Belastung der Bevölkerung krass falsche Annahmen zugrunde, die nicht als leichte statistische Unschärfe angesehen werden können.

Vielmehr ist die Party eigentlich schon vorbei, bevor sie so richtig begonnen hat, ganz egal, was die WHO-Zauberformel noch auszurichten imstande ist, da nämlich die zwei wichtigsten Parameter, die Diagnosen der Todesursachen und die NO2-Belastungsindikatoren, sehr zweifelhaft sind, und eigentlich müsste spätestens jetzt bei den Autoren die grosse rote Alarmglocke schrillen, aber was mal son wackerer “umweltbedingter Krankheitslasten-Forscher” ist, der oder die lässt sich natürlich auch durch diese schüttere Datenlage nicht erschüttern und errechnet trotzdem und munter die „Attributable Fraktion“, also den Anteil der an kardiovaskulären Erkrankungen Verstorbenen, der allein dem Stickstoffdioxid anzulasten sei.

Attribuh… aäh… was?

Attributable Fraktion, das ist eine statistische Grösse in der Epidemiologie oder auch der Gesundheitswissenschaft, welche ausdrücken soll, wie viele Menschen nicht krank geworden wären, hätten sie sich nicht einem bestimmten Risikofaktor aussetzen müssen. Normalerweise bestimmt man diese Zahl unter anderem durch sogenannte Kohortenstudien, also indem man zwei möglichst gleich grosse Gruppen von Menschen medizinisch über einen längeren Zeitraum beobachtet, und von denen eine Gruppe beispielsweise raucht und die andere nicht. Nach einer bestimmten Zeit wird dann untersucht, wie viele Mitglieder beider Gruppen eine kardiovaskuläre Erkrankung entwickelt haben und sehr wahrscheinlich werden mehr Raucher als Nichtraucher erkrankt sein und dieses „Plus“ an erkrankten Rauchern im Verhältnis zu den erkrankten Nichtrauchern ist sodann die „Attributable Fraktion“. Natürlich handelt es sich hierbei wieder um eine fiktive Zahl, da man ja nicht wissen kann, wie viele der erkrankten Raucher doch erkrankt wären, auch wenn sie niemals geraucht hätten, aber dennoch hat diese Zahl ihre epidemiologische Berechtigung, da sie eben die Ursachen von Volkskrankheiten äusserst prägnant abbildet und so politischen Handlungsbedarf anzeigen kann, denn das ist ja der eigentliche Zweck der Epidemiologie, der Lehre von den Volkskrankheiten, sie soll Handlungsbedarf aufzeigen. Dazu muss aber auch gewährleistet sein, dass zwischen der theoretischen Ursache einer Krankheit und der Krankheit selbst ein zweifelsfreier kausaler Zusammenhang besteht. Und eben das ist das dritte Problemchen der Autoren, denn eine Studie, die glasklar klinisch nachweist, dass schon geringe NO2 Dosen ab einem Wert von 10 Millionstel Gramm auf einen Kubikmeter Luft alleinursächlich sein kann für die Entwicklung einer tödlichen kardiovaskulären Erkrankung gibt es bislang nicht, denn wenn es sie gäbe, hätten uns die Autoren diese Studie mit Wonne um die Ohren gehauen, so wie ihre eigene Studie eigentlich überflüssig geworden wäre. Stattdessen bedienen sie sich der Zauberformel der WHO und unterfüttern ihre Studie mit den Ergebnissen der Studien anderer Autoren, die aber mit ähnlichen Methoden ähnlich im Nebel rumstochern, weil natürlich auch sie über keinen glasklaren Beweis über die gesundheitsschädigende Wirkung von sehr geringen NO2-Konzentrationen verfügen. Die Bestimmung eines Grenzwertes für eine Langzeitbelastung durch NO2 bereitete schon der WHO seinerzeit ein paar Problemchen. In den „Air Quality Guidelines for Europe“ der WHO, auf welche letztlich und immer noch die Grenzwerte der EU, auch die 40 Mikrogramm NO2 (Nitrogen Dioxide) pro Kubikmeter Luft für Stickstoffdioxid, zurückgehen, kann man nachlesen:

„Nitrogen dioxide presents a dilemma with respects to guidelines. It is clear that the public should be protected from expressive exposure, but the recommendation of a guideline is complicated owing to the difficulties posed by the uncertainties in exposure-response relationships for both acute (〈3-hour) and long-term exposure, and the uncertainties establishing an appropriate margin of protection.“ (177)

Die Autoren erkennen zwar die Notwendigkeit, die Öffentlichkeit vor einer übermässigen NO2 Belastung schützen zu müssen, allerdings erweist sich die Empfehlung von Grenzwerten aufgrund der Schwierigkeiten hinsichtlich der Unsicherheiten in den ausgewerteten klinischen Studien bezüglich der tatsächlichen Belastungsgrenzen sowohl für den Kurzzeit- als auch den Jahresmittelwert als kompliziert. Die WHO befindet sich demnach in einem Dilemma, einerseits ist NO2 natürlich giftig, andererseits liefert die grosse Anzahl ausgewerteter klinischer Studien keinerlei belastbar belegten Grenzwert, schon gar nicht für den Jahresmittelgrenzwert, der die Öffentlichkeit vor chronischer Belastung schützen soll.

“Although there is no study or set of studies that clearly support selection of a specific numerical value for an annual average guideline, the database nevertheless indicates a need to protect the public from chronic nitrogen dioxide exposure.“ (179)

Schlussendlich eiern die Autoren noch ein bisschen rum, betonen nochmals, dass es nicht möglich ist auf Basis der ausgewerteten Studien einen fundierten Jahresmittelwert auszuweisen:

„Selecting a well supported value based on the studies reviewed has not been possible,..“ (179)

Und ziehen sich dann nicht eben elegant aus der Affäre, in dem sie mangels Alternative auf eine ältere Analyse der WHO zurückgreifen, die einen Jahresmittelwert von 40 Mikrogramm pro Kubikmeter Luft empfiehlt. Das ist insofern bemerkenswert, da eine ältere Analyse kaum bessere Datensätze oder Studien zur Verfügung gehabt haben kann und wohl auch nicht mit dem Auftrag der Festlegung verbindlicher Grenzwerte für die EU erstellt worden ist.

„…but it has been noted that a prior review conducted for the Environmental Health Criteria document on nitrogen oxides recommended an annual value of 40 µg/m3. (5) In the absence of support for an alternative value, this figure is recognized as an air quality guideline.“ (179)

Schaut man dann bei der englischsprachigen Wikipedia-Seite über Nitrogen Dioxide vorbei – die deutsche sollte man in diesen bewegten Zeiten eher meiden – um zu sehen, ob es heutzutage mehr Gewissheit über die Langzeitbelastung durch sehr geringe Konzentrationen NO2 und deren Folgen gibt, sieht man sich enttäuscht, weshalb es die us-amerikanische Gesundheitsbehörde auch bei einem Jahresmittelgrenzwert von 100 Mikrogramm belässt, das ist mehr als doppelt so viel wie der EU-Grenzwert und zehnmal so viel wie die angeblich mittelbar tödliche Langzeitminimaldosis der Autoren der untersuchten Studie.

Und was bedeutet das jetzt, Chef?

Das bedeutet, wenn die Autoren der Studie verlautbart hätten, sie verfügten über eine Studie, die – unter der Annahme, NO2 hätte schon ab einer geringen Dosis von nur 10 Millionstel NO2 Gramm auf einen Kubikmeter Luft langfristig eine tödliche Wirkung, und unter der Annahme, die von ihnen hochgerechnete NO2-Belastung in Deutschland entspräche der Realität, und unter der Annahme, die amtliche Todesfallstatistik bilde die Realität exakt ab, sowie unter der Annahme, alle Einwohner in Deutschland würden Tage, Wochen, Monate und Jahre immer nur in ihrem eigenen Zuhause rumsitzen, – nahelegen könnte, dass wenn es in ganz Deutschland dauerhaft weniger als 10 Millionstel Gramm NO2 pro Kubikmeter Luft geben würde, die Sterblichkeitsrate kardiovaskulärer Erkrankungen geringfügig um ca. 1,6 Prozent zurückgehen könnte. Möglicherweise.

N bisschen viel Annahmen…

Ja, aber die Nennungen der Annahmen würde diese Studie als das charakterisieren, was sie eigentlich auch ist: eine blosse Modellrechnung, ein Artefakt – mehr nicht. Denn um eine wirklich belastbare Schlussfolgeruzng ziehen zu können, müssten ausnahmslos alle Annahmen valide, also gültig sein, was sie aber nicht sind. Dennoch schreiben sie:

„Für das Jahr 2014 wurden 5.966 Todesfälle geschätzt, (…) Wichtig für die Interpretation der gezeigten Ergebnisse ist, dass es sich bei den Todesfällen nicht um zusätzliche Todesfälle, sondern um Todesfälle handelt, die z. B. bereits als kardiovaskuläre Fälle erfasst worden sind, nun jedoch auf den Risikofaktor NO2 zurückgeführt werden können.“ (105)

Und das ist natürlich totaler Quatsch, entfaltete aber durch seine gewollte Prägnanz auch die gewollte mediale Wirkung: 5966 TOTE! DURCH! NO2! OH! GOTT! WIR! WERDEN! ALLE! STERBEN! Und die muss ein Bundesrichter, der ein paar Tage später über Fahrverbote zu entscheiden hat, erst einmal aushalten, zumal er von dem DUH-Resch noch mit zusätzlichen Studien bombardiert worden ist, die natürlich, soweit ich die kenne, von ähnlicher Machart sind. Ja, und selbst wenn man heute vermuten möchte, dass die Ergebnisse auch deshalb vor dem Verhandlungstermin durchgestochen worden sind, damit sich nach der offiziellen Veröffentlichung nach der Gerichtsverhandlung, wenn die Messe bereits gelesen ist, niemand mehr für die wirkliche Qualität und Aussagekraft der Studie interessiert, hat man mit diesem Schwachsinn doch äusserst erfolgreich Politik gemacht, auch wenn die Studie sich nicht nur durch die reisserische Präsentation der „Ergebnisse“ als „objektive Wissenschaft“ disqualifiziert und sich als das erweist, was sie wirklich ist, nämlich politischer „Wissenschaft-Aktivismus“, in Auftrag gegeben nicht von einer NGO, einer Nichtregierungs-Organisation, sondern von einer Bundesverwaltungsbehörde, die unter grüner Ägide zur Lobbyisten-Organisation mutierte und die bei der Verfolgung ihrer politischen Ziele keine Skrupel kennt, auch nicht den Skrupel, beinahe schon lustvoll mit den Ängsten der Menschen zu spielen und diese für die eigenen politischen Interessen zu instrumentalisieren. Ein Wahnsinn, der offensichtlich bereits Methode ist, 241 Treffer erhält man auf der Webseite des Umweltbundesamtes, wenn man die Pressemitteilungen der Behörde anhand des Suchbegriffes „Todesfälle“ durchforstet. Und diese Art des hysterischen Alarmismus, das Spiel mit der Angst, welches letztlich auch nur eine Form des Populismus ist, riecht doch sehr nach den Methoden der Öffentlichkeitsarbeit einer Partei, die keine Nanosekunde zögert, anderen Parteien Populismus vorzuwerfen, aber selbst sehr versiert darin ist, ein Menetekel nach dem anderen an die Wand zu malen, um sich sodann und noch im gleichen Atemzug als die einzig wahre Rettung zu präsentieren. Populismus bleibt aber Populismus, auch wenn er sich in den Dienst einer guten Sache stellt. Und vielleicht wird er gerade so noch gefährlicher, da das Zweck oder das Ziel des politischen Handeln, das als „gut” erkannt wurde, die Mittel um so mehr heiligt, in dem Sinne, dass eigentlich alles, jeder Blödsinn und jede Intrige, erlaubt ist, solange es nur vermeintlich dem guten Zweck dient. Das mag seinen Grund auch darin haben, dass sich die Betreiber des „positiven“ Populismus der grundsätzlichen Unterstützung grosser Teile der Gesellschaft sicher und damit auch sich selbst als unangreifbar wähnen, denn ein jeder möchte schliesslich gute Luft und keiner wünscht den Eisbären Böses, weshalb es denn ein Leichtes zu sein scheint, auch berechtigte Kritik an den Mitteln und Methoden mit einer Kritik am guten Zweck gleichzusetzen und als moralisch verwerflich zu verurteilen. Und so kann es dann kommen, dass die Mittel und Methoden immer mehr aus dem Ruder laufen und sich keiner mehr einen Kopf darüber macht, weil sich entweder keiner traut oder alle der gleichen guten Meinung sind, wie beispielsweise Ende 2016 geschehen, als der Bundesrechnungshof Alarm schlug, da die Kosten und die Umsetzung der Energiewende aus dem Ruder liefen, und sich keiner, auch die Opposition nicht, darüber aufregte.

Auch die Opposition nicht?

Nein auch die Opposition nicht, wobei man sich schon fragen kann, wer damals in dieser Frage überhaupt noch Opposition war, als lediglich vier Parteien, CDU, SPD, Grüne und Linke im Bundestag sassen. Kaum eine dieser Parteien und kein Politiker zeigte damals, bis auf eine Ausnahme, ein wirkliches Interesse daran, die Energiewende effizienter oder sozial gerechter zu gestalten, vielleicht auch, da mit Kritik an diesem Projekt bei den Wählern kaum zu punkten war, denn die Deutschen sind zwischenzeitlich durch fast schon jahrzehntelangen „positiven“ Angst-Populismus stark grün-konditioniert, das ist fast schon wie son pawlowscher Reflex, kaum sind die Worte „Klimawandel“ oder „Eisbär” ausgeklungen, schiebt der grün-konditionierte Deutsche seine Meßstationen brav noch n bisschen näher an die Stadtautobahn, obwohl er das gar nicht müsste, dabei waren die Vorwürfe des Bundesrechnungshofes damals heftig. In dem Bericht des Bundesrechnungshofes stand zu lesen:

„Der Bundesrechnungshof hat die Maßnahmen zur Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft und Energie (BMWi) geprüft. Aus seinen Prüfungserkenntnissen zieht der Bundesrechnungshof folgende Schlussfolgerungen:

(…) Allerdings zeigen die Feststellungen des Bundesrechnungshofes, dass das BMWi bislang seine Rolle als Gesamtkoordinator noch nicht ausfüllt. Weder hausintern noch ressortübergreifend oder mit den Ländern finden koordinierte Absprachen statt. Das BMWi hat keinen Überblick über die finanziellen Auswirkungen der Energiewende.

(…) Dem BMWi ist es bisher nicht gelungen, ein funktionierendes Fördercontrolling aufzubauen. Trotz wiederholter Hinweise des Bundesrechnungshofes führt es außerdem bei seinen Förderprogrammen keine ausreichenden Erfolgskontrollen durch. (…) So werden ineffiziente Förderprogramme aufgesetzt, verlängert und aufgestockt. Das BMWi stellt bislang nicht sicher, dass Programme mit niedriger Effizienz und zugleich geringen Nutzen für die Energiewende auslaufen und frei werdende Mittel zielführender eingesetzt werden können. Der Bundesrechnungshof sieht deshalb das Risiko, dass es immer teurer werden wird, die Energiewende voran zu treiben. Der Bundesregierung und dem BMWi als deren Gesamtkoordinator ist es bislang nicht gelungen, eine Balance zwischen hohen Klimaschutzzielen und effizienten Förderprogrammen zu finden (…).

(…) Die Bundesregierung setzt sich für die Energiewende die Ziele des sogenannten „energiepolitischen Dreiecks“ Umweltverträglichkeit, Versorgungssicherheit und Bezahlbarkeit. Der jährliche Monitoringbericht des BMWi zur Energiewende zeigt, dass neben dem Ziel Umweltverträglichkeit die anderen beiden Ziele bei der Umsetzung der Energiewende nicht gleichrangig berücksichtigt werden.

(…) Der Bund muss sich an zentraler Stelle einen umfassenden Überblick über die finanziellen Auswirkungen der Energiewende verschaffen.

(…) Das Monitoring der Energiewende muss im Hinblick auf die Zielarchitektur optimiert werden. Die Ziele Versorgungssicherheit und Bezahlbarkeit müssen genauso konkretisiert, bewertet und quantifiziert werden wie das bereits ausreichend quantifizierte Ziel Umweltverträglichkeit.“

Häh?

Was der Bundesrechnungshof damit sagen will ist, dass bei der Umsetzung der Energiewende unter dem Primat des “hohen Ziels Klimaschutz” die beiden anderen Ziele Versorgungssicherheit und vor allem Bezahlbarkeit etwas unter die ökologischen Räder geraten sind. Oder mit anderen Worten: die Energiewende ist ökologisch sehr bemüht, aber ökonomisch hinsichtlich der Bezahlbarkeit und Versorgungssicherheit ein Desaster. Eigentlicher Adressat dieser geharnischten Kritik im Bundeswirtschaftsministerium, das ein paar Tage später zurückkeilte und dem Bundesrechnungshof natürlich vollkommene Ahnungslosigkeit unterstellte, war Rainer Baake, ein Weggefährte von Jürgen Trittin, der bereits von 1998 bis 2005 Staatssekretär im von Trittin geleiteten Bundesumweltministerium war, danach Bundesgeschäftsführer von Jürgen Reschs DUH und Direktor einer weiteren Umweltlobbyorganisation, bis er 2014 wieder im Bundeswirtschaftsministerium unter – genau – Sigmar Gabriel auftauchte, dessen Ministerium praktischerweise auch die Zuständigkeit für die Umsetzung der Energiewende vom Bundesumweltministerium übernahm, vorgeblich um die Kompetenzen für die Umsetzung der Energiewende „in einer Hand zu bündeln“, wahrscheinlich aber auch, um sie in der Hand Baakes zu bündeln, der als urgrüner Vater und Architekt der Energiewende gilt und galt, und Baake als zweiter Grüner neben Flasbarth in federführender Position im Bundesumweltministerium dann doch offenbart hätte, wie überflüssig Barbara Hendricks eigentlich ist. Baake befand sich somit zwar nicht an alter Wirkungsstätte, aber doch mit jetzt erweiterten Kompetenzen in derselben Zuständigkeit wie weiland von 1998 bis 2005 als er unter Trittin die Energiewende einleitete. Baake ist somit die “zweite Konstante“ Trittins und konnte vollenden beziehungsweise vervollständigen, was Trittin und er vor 16 Jahren in die Wege geleitet hatten. Seit seinem ersten Ausscheiden aus dem Amt, 2005, bis zu seinem Wiedereinstieg 2014, hatte sich der Strompreis, getrieben von der Energiewende, um ca. 56 % verteuert. Anfang 2013 brachte deshalb der damalige Bundesumweltminister Altmaier eine „Strompreisbremse“ ins Gespräch, er wollte die Ökostromumlage, die in den vorangegangenen Jahren stark gestiegen war, auf der damaligen Höhe von 5,287 Cent pro Kilowattstunde einfrieren, weil:

„Es nicht vertretbar (ist), dass das Kostenrisiko für die Zukunft weiterhin einseitig und ausschließlich beim Stromkunden liegt“

Altmaier befürchtete, dass die Ökostromumlage mittelfristig auf 7 Cent die Kilowattstunde ansteigen könnte, konnte sich aber mit seinem Vorschlag auch gegen den hinhaltenden Widerstand der Grünen nicht durchsetzen. Im Jahre 2017, Baake war seit Januar 2014 im Amt, sollte sich Altmaier Vorhersage fast vollständig bewahrheiten, die Ökostromumlage kletterte auf 6,88 Cent die Kilowattstunde. Die erneuerbaren Energien waren in den letzten Jahren massiv ausgebaut worden, allein die Windkraft verbuchte seit 2013 einen Zuwachs von 36,3 Terrawattstunden in der Stromerzeugung, ein Wachstum von über 70%. Der Strompreis, den die Endkunden zu zahlen hatten, war seit 2000 um fast 110% gestiegen, wobei der Strompreis schon seit 2013 ein ähnlich hohes Niveau erreicht hatte und sich seit dem „seitwärts“ bewegte, also auf diesem hohen Niveau verharrte, obwohl Solar- als auch Windenergie, laut Baake die „günstigsten“ alternativen Energien, massiv ausgebaut wurden. Dass der Strompreis auf hohem Niveau stabil blieb, hat seinen Grund in einer speziellen Eigenart der Strompreisermittlung, das ist so eine Art „Trick 17 mit Selbstüberlistung”. Und der geht so:

Jeder Betreiber einer Anlage für alternative Energieerzeugung, sei es Solar- oder Windenergie, erhält für seinen Ökostrom eine auf 20 Jahren garantierte Einspeisevergütung. Die Höhe der Vergütung differiert. Nehmen wir hier aber mal 20 Cent pro Kilowattstunde an.

Der Ökostrom wird nach Erzeugung an der Strombörse verkauft. Hier herrscht weitestgehend das Prinzip Preisermittlung durch das Zusammenspiel von Angebot und Nachfrage. Derzeit wird an der Strombörse durchschnittlich ein Preis von 3,7 Cent pro Kilowattstunde erzielt. Der mit garantierten 20 Cent Einspeisevergütung bezahlte Ökostrom wird also für 3,7 Cent an der Strombörse verkauft. Bleibt eine „Lücke“ zu der garantierten Einspeisevergütung von 16,3 Cent. Diese Differenz zahlen die Endkunden durch die EEG-Umlage.

Der Grund, dass der Strompreis auf dem hohen Niveau verharrt, der „Trick 17 mit Selbstüberlistung“, ist also die Kopplung von Strompreisermittlung durch Angebot und Nachfrage mit der Finanzierung der Einspeisevergütung durch die EEG-Umlage, normalerweise sollte man ja annehmen, je mehr Strom auf den Markt angeboten wird, desto niedriger der Preis. Durch den „Trick 17“ wird dieser Effekt aber umgekehrt, es tritt eine paradoxe Wirkung ein, je mehr Ökostrom angeboten wird bei gleichbleibender oder nur moderat steigender Nachfrage, je niedriger der zu erzielende Preis also, desto grösser wird die Lücke zwischen Börsenpreis und der garantierten Einspeisevergütung und desto höher steigt die EEG-Umlage. Das heisst, durch diesen „Mechanismus“ wird der der Preisvorteil des steigenden Stromangebots auch „günstiger“ alternativen Energien durch die steigende Umlage wieder aufgefressen. Indem wir also immer mehr alternative Energien „finanzieren“, sorgen wir dafür, dass der Strompreis konstant hoch bleibt oder steigt. Dieser Irrsinn wird vielleicht erst dann durchbrochen werden, wenn die ältesten Einspeisungsverträge, die sehr hoch vergütet wurden, endlich auslaufen.

Das’ jetzt nicht Dein Ernst, Chef? Wir finanzieren unsere eigenen hohen Stromrechnungen?

So isses. Und da sich Wind und Sonne nicht unbedingt immer nach unserem Energiebedarf richten, passiert es immer häufiger, 2017 immerhin schon an 24 Tagen im Jahr, dass ein Haufen Ökostrom auf den Markt drückt, den dann niemand braucht, ja, den noch nicht mal jemand geschenkt haben will, der aber aus dem Netz muss, weshalb den Abnehmern noch Geld gezahlt wird, in der Spitze über 8 Cent pro Kilowattstunde, damit sie ihn überhaupt nehmen.

Ähä… Und wer zahlt das?

Ja, wir. Werdennsonst? Die Endverbraucher-Deppen zahlen letztlich alles. Wir zahlen einen Haufen Geld für teuer subventionierten Ökostrom, den keiner braucht, und schmeissen diesem Geld dann noch weiteres Geld hinterher, damit ihn uns irgendjemand abnimmt. Kommt aber noch besser.

Ohje.

Da viele unserer Nachbarn, nicht nur die Franzosen, mittlerweile eine gewisse Sensibilität für die pekuniären Vorteile entwickelt haben, die ihnen erwachsen können, wenn die deutsche Naivität mal wieder in den Himmel wächst, lassen sie sich bezahlen, um uns den sinnlos erzeugten Strom abzunehmen, mit dem sie dann ihre Pumpspeicherkraftwerke füttern, um uns den „gleichen“ Strom dann als Ökostrom wieder teuer zurückzuverkaufen, wenn in Deutschland gerade grosse Nachfrage und wenig Angebot besteht. Wir zahlen diesen Strom sozusagen doppelt und dreifach, durch die EEG-Umlage, den Negativpreis und als Ökostrom aus beispielsweise österreichischen Pumpspeicherkraftwerken.

Tja, Chef, aber wenigstens können wir so den Klimawandel verhindern!

Der Klimawandel bleibt eine globale Baustelle, da sollten wir unsere Einsparungspotentiale nicht überschätzen… Aber dennoch hast du recht. Man könnte jetzt natürlich sagen, ok ist teuer, weil die Umsetzung der Energiewende nicht besonders intelligent gemacht ist, aber was solls, kostet so um die 300 Euro EEG-Umlage im Jahr und der hohe Strompreis… naja, ist doch fürn guten Zweck und gegen den Klimawandel. Letztendlich kann man sich ja alles schönreden. Es gibt aber mittlerweile ne Menge Leute, die haben Probleme, bei der Bekämpfung des Klimawandels finanziell mitzuhalten. Aus einer Erhebung des statistischen Bundesamtes ging kürzlich hervor, dass 2016 31% der Bundesbürger ab 16 Jahren sich keine unerwarteten Ausgaben in Höhe von 985 Euro leisten können. „Dieser Geldbetrag entspricht dem seinerzeit statistisch maßgeblichen Schwellenwert bei der Armutsgefährdung in Deutschland.“ Zudem müssen 4,9 Millionen Menschen in Deutschland bereits beim Essen sparen und können sich nur jeden zweiten Tag eine warme Mahlzeit leisten. Es sind also ziemlich viele Menschen, die durch die hohen Strompreise finanziell zusätzlich unter Druck geraten, da die Entwicklung bei den Realeinkommen nicht mit der Entwicklung des Strompreises mitgehalten hat, nur die wenigsten verdienen heute 110% mehr als vor 18 Jahren. Und das hat Folgen, allein 2016 wurden 330.000 Haushalten, nicht Menschen, der Strom abgestellt, weil sie ihre Stromrechnung nicht bezahlen konnten, zudem gab es insgesamt 6,6 Millionen Sperrandrohungen. Das ist schon heftig, wenn man bedenkt, dass 2016 insgesamt 40,96 Millionen Haushalte in Deutschland gezählt wurden. Bei diesen Menschen handelt es grösstenteils um Leute, die in energetisch problematischen Wohnstrukturen festhängen. Und diese Wohnstrukturen finden sich vor allem in den Städten, unsanierte Altbauten, also Häuser, die zu Zeiten der vorletzten Jahrhundertwende gebaut wurden, als es noch keine Zentralheizung gab. In diesen Wohnstrukturen finden sich dann die Stromfresser, welche in den 1960er bis 1970er Jahren eingebaut worden sind, als der Strom noch vergleichsweise billig war oder verbilligt als Nachtstrom bezogen werden konnte: Nachtspeicheröfen, Durchlauferhitzer, Boiler sind aufgrund der Energiewende zu beträchtlichen Armutsrisikofaktoren geworden, wenn dann noch schlecht isolierte Wände, zugige Fenster und ein kalter Winter hinzukommen, steigt die jährliche Stromrechnung mittlerweile locker auf über 3000 Euro. Dabei sind das ganz normale Leute, die sprichwörtliche Krankenschwester findet sich darunter, normale Angestellte, Rentner, die ganz normale angestammte Bewohnerschaft eines Viertels also, die sich ihre Heimat zu Zeiten günstigerer Strompreise noch leisten konnten, obwohl die Mieten auch in ihrer Gegend aufgrund der Gentrifizierung angezogen sind, aber eben noch nicht so stark wie in den sanierten Altbauten, deren neue Bewohnerschaft, die überproportional grün wählt, höhere Mieten für die Mitgliedschaft im neu errichteten „Urban Playground“ gerne in Kauf nimmt. Die alte Bewohnerschaft wird also von zwei Seiten in die Zange genommen, von der Gentrifizierung und der Energiewende, irgendwann wird sie sich nicht mehr mithalten können, dann wird sie finanziell abrutschen und verschwinden. Ganz schön praktisch so eine Energiewende, sie entmietet geräuschlos ganze Strassenzüge, da freut sich sicher die Immobilienmaklerbranche und die neue lifestyle-linke Bohême.

In einem seiner seltenen Interviews wurde Rainer Baake darauf angesprochen, dass Hunderttausende Privathaushalte ihre Stromrechnungen nicht mehr zahlen konnten, da reagierte er ziemlich schmerzfrei, das sei, sagte er, eine Aufgabe für die Sozialpolitik, er habe allein die Energiewende umzusetzen. Die Frage, ob denn nicht die stromintensive Industrie, die nur eine sehr reduzierte EEG-Umlage bezahlen muss, für das Zukunftsprojekt Energiewende stärker in die finanzielle Pflicht genommen werden könnte, um die einkommensschwachen Haushalte zu schonen, beantwortete er mit der typischen Politikerfloskel, er müsse verhindern, dass Arbeitsplätze ins Ausland abwandern. Dass die Industrie in den letzten Jahren milliardenschwere Gewinne eingefahren hat und dass diese Gewinne durch die Stromentgelte der ärmsten Schlucker quersubventioniert werden, die aufgrund ihrer angespannten finanziellen Situation keinerlei Möglichkeit haben, an den sonnigen Gewinnaussichten der Energiewende zu partizipieren, so wie milliardenschwere Konzerne, welche ein Windrad nach dem anderen in die Landschaft pflanzen, und vermögende Privathaushalte, die chinesische Solarpaneele auf ihr Eigenheim montieren lassen, sondern ganz im Gegenteil auch weiterhin herangezogen werden, um immer mehr alternative Energieerzeugung zu finanzieren, die immer mehr Strom produziert, der, wenn er nicht verschenkt wird, fast ohne „Trick 17“ zu immer günstigeren Konditionen der Industrie zu Verfügung gestellt werden, kam ihm – zumindest offiziell – nicht in den Sinn.

Vielleicht auch, weil er dann zugeben hätte müssen, wie diese ökologische Energiewende ökonomisch wirklich konstruiert ist: Als eine Umverteilung von ganz unten nach oben. Und wenn Altmaier ein zweites mal Recht hat mit seiner anderen Vorhersage, die Energiewende könnte in der Summe bis zu 1 Billion Euro kosten, dann ist die Energiewende die gigantischste Umverteilung von unten nach oben, die es jemals in der Geschichte der Bundesrepublik Deutschland gegeben hat. Und was daran „links“ sein soll, erschliesst sich mir immer noch nicht. Das ist genauso wenig „links“ wie mit zweifelhaften „Studien” ein mehrjähriges Schmierentheater aufzuziehen, dessen letztes Kapitel oder dessen letzter Schlag vor dem Bundesverwaltungsgericht unbedingt noch geführt werden muss, bevor die angeblich gesundheitsschädlichen Werte sich in wenigen Jahren aufgrund fortschrittlicherer Motorentechnik verflüchtigt haben werden, was zur Folge hat, dass ein sehr grosser Teil des Vermögens von hunderttausenden Autofahrern mit eben diesem Schlag vernichtet wurde. Nicht alle werden es so dicke gehabt haben, um sich einen Tesla als Drittwagen für den grünen Fall der Fälle in die Garage zu stellen. Viele werden beim irgendwann wieder anstehenden Autokauf den Restwert ihres Gebrauchten dringend einkalkuliert haben, welcher jetzt aber leider gegen Null tendiert.

Ich dachte eigentlich immer „Links-Sein“ habe etwas mit Sozialer Gerechtigkeit zu tun, aber offenbar habe ich da was übersehen, denn wenn ein Herr Jürgen Trittin links zu sein wünscht, dann wird „Links-Sein“ eben umdefiniert, dann hat das nix mehr mit Sozialer Gerechtigkeit im Hier und Jetzt zu tun, dann wird die Erfüllung der Sozialen Gerechtigkeit auf ein diffuses Morgen verschoben, wenn eine Utopie, LaLaLand, endlich verwirklicht wurde und alles endlich irgendwie „gut“ für alle sein wird, also für alle, die es auch bis nach LaLaLand geschafft haben, denn wer und wie viele von uns auf dem langen Marsch nach LaLaLand auf der Strecken bleiben werden, ist dem guten Jürgen, wie man sieht, ziemlich egal.

Aber irgendwie verwundert das alles nicht. Es verwundert nicht, dass Trittin bei jedem seiner Interviews spöttisch-süffisant betonend auf seine Funktion als nur noch einfacher Abgeordneter verweist, so als wolle er sagen: Alter, wenn du wüsstest. Es verwundert nicht mehr, dass der alt-grüne Fischer dieser Tage die Bundeskanzlerin so lobte, erlaubte sie doch Teilen der Grünen, ganz wesentliche Projekte der Verkehrs-, Umwelt- und Energieprojekte ohne Regierungsauftrag ganz massgeblich mitzubestimmen, wobei sie noch nicht einmal die Kontrolle oder die Kritik der Opposition fürchten mussten, denn sie waren ja die Opposition. Es verwundert einen deshalb auch nicht die Bundeskanzlerin. Und auch nicht das Gebaren des Umweltbundesamtes, ist doch die Bremer BAMF-Aussenstelle auch nur noch eine Filiale von „Pro Asyl“. Was einen aber verwundert, ja beinahe schon erschreckt, ist die Rolle der SPD in diesem ganzen Schlamassel. Denn die Hauptleidtragenden des ganzen Theaters sind eigentlich ureigene sozialdemokratische Kernklientel. Und es waren Sozialdemokraten, und hier vor allem Gabriel, die diese Klientel nicht nur nicht schützten, sondern sie auch noch auslieferten, indem sie den Grünen die politischen Mittel an die Hand gaben, ihrer Klientel für den guten Zweck mal so richtig schön und fortgesetzt in den Hintern zu treten. Und als die Grünen endlich mit ihnen fertig waren, durften sie auch noch ein Interview der neuen Bundesumweltministerin Schulze zur Kenntnis nehmen, in welchem sie auf die Frage, ob sich Gabriel irrt (!), wenn er nach der Wahl meinte, die SPD sei vielleicht zu grün geworden, antwortete:

„Ich sage Ihnen, was ich auch ihm gesagt habe: Die grüne Frage ist inzwischen eine rote Frage, eine Frage der sozialen Gerechtigkeit. Wer wohnt denn an den lauten, dreckigen Straßen mit der schlechten Luft? Das sind doch nicht die reichen Leute.“

Nee, die reichen Leute wohnen in Halbhöhenlage, die kleinen Leute eigentlich noch in Heslach. Und die werden sich freuen, wenn sie demnächst an die B14 vor dem Tunnel ziehen, eine SPD-Ministerin nach der verpassten grünen Zwangsbeglückung noch in Harvey-Weinstein-Manier hinter sich her rufen zu hören:

Du wolltest es doch auch, mein Schatz!

Herzlichen Glückwunsch! Sie haben es geschafft. War aber auch ein langer Text. Nach langer Wartezeit… Der nächste Teil von “Alles Nazis – ausser Mutti!” erscheint im Juni. Bis dahin hilft vielleicht Musik. Weil Musik ja schliesslich immer hilft:

Sing, Sing, Sing

Kommentieren

Sie müssen angemeldet sein, um kommentieren zu können.