2017/12/29

Hat PV eine negative Energiebilanz?

Dass Photovoltaik eine relativ schwachbrüstige Energiequelle ist, darf als bekannt vorausgesetzt werden. Der Kapazitätsfaktor liegt bei etwas mehr als 10%, d.h. nur ein gutes Zehntel der theoretisch verfügbaren Leistung wird tatsächlich produziert. Fast alle anderen Möglichkeiten der Energiegewinnung schneiden in dieser Hinsicht deutlich besser ab. Insofern ist die Faszination, die dieser Form der Stromgewinnung entgegengebracht wird, kaum zu verstehen.

Von einer Energiequelle sollte man sinnvollerweise annehmen können, dass sie eine positive Energiebilanz aufweist. Was ist damit gemeint? Gemeint ist damit das Verhältnis zwischen der Energie, die zur Herstellung einer solchen Quelle nötig ist, und jener Energie, die diese Quelle dann über ihre Lebensdauer erzeugt. Beispiel: Der Bau eines Gaskraftwerks erfordert eine gewisse Menge Energie (nennen wir sie X) über die Herstellung und den Transport der Baumaterialien und anderer technischer Komponenten sowie die Arbeitsleistung beim Aufbau der Anlage. Sobald das Kraftwerk in Betrieb geht, wird aktiv Energie erzeugt. Irgendwann kommt das Kraftwerk ans Ende seiner Tage und wird stillgelegt. Bis zu diesem Zeitpunkt hat es die Energie Y produziert, die (hoffentlich) deutlich größer ist als der Aufwand X aus der Bauphase. Nur wenn Y immer größer als X ist (also Y/X > 1), rentiert sich das Unternehmen aus physikalischer Sicht. Über die Ökonomie ist damit aber noch nichts gesagt.

Zwei Schweizer Energieexperten haben kürzlich genau dieses Verhältnis Y/X für PV-Anlagen unter die Lupe genommen und kamen zu dem Ergebnis, dass Y/X < 1 ist. Genaueres hierzu findet sich hier und, für Freunde der detaillierten Analyse, hier.

Ich persönlich maße mir kein abschließendes Urteil darüber an, ob in dieser Sache bereits das letzte Wort gesprochen ist. Vielleicht lassen ja zukünftige Entwicklungen (technische Verbesserungen) eine positivere Schlussfolgerung zu. Allein die Tatsache, dass man bei der Photovoltaik keine eindeutig positive Energiebilanz als gegeben voraussetzen kann, lässt dieses Unterfangen in einem sehr zweifelhaften Licht erscheinen. Um nochmals auf das obige Beispiel mit dem Gaskraftwerk zurückzukommen: Eine Anlage, die nicht deutlich mehr Energie liefert als zu ihrer Herstellung nötig ist, ist physikalisch gesehen sinnlos.


2017/12/16

Kann man vom Energieversorger unabhängig werden?

In zwei Blogposts befasst sich Roger Andrews mit den Möglichkeiten, gleichsam energieautark zu werden, zumindest was die Versorgung mit Elektrizität betrifft. Er analysiert dabei ein zufällig gewähltes Haus in Shrewsbury (Vereinigtes Königreich), das mit einer Photovoltaikanlage ausgestattet ist. 2016 produzierte diese Anlage 3809 kWh (bei einer Kapazität von 4 kWp).

Wenig überraschend stellt der Autor fest, dass hiermit eine völlig autarke Energieversorgung nicht möglich ist. Der Grund ist die über das Jahr schwankende Stromproduktion, die im Winter (wenn man also mehr Energie braucht) zuwenig und im Sommer (wenn man nicht soviel braucht) zuviel liefert. Auch der Einsatz einer Tesla Powerwall schafft keine endgültige Abhilfe. Um sich wirklich völlig von seinem Energieversorger zu trennen, braucht man letztlich immer einen Dieselgenerator.
Mehr dazu hier und hier.

Aus persönlicher Sicht möchte ich hierzu folgendes anmerken: Seit 2013 verfolge ich monatlich die Produktionsdaten einer PV-Anlage im sonnigen Linz. Ein Vergleich dieser Werte mit jenen aus dem angeblich verregneten Vereinigten Königreich ergibt, dass beide Anlagen durchaus vergleichbare Kapazitätsfaktoren (capacity factor) von etwas über 10% haben. 2016 schnitt die Photovoltaik auf der Insel sogar etwas besser ab.


2017/12/12

Eine kurze Geschichte der Kohle

Am Beispiels Großbritanniens.

Kohle hat als Energieträger in unseren Tagen nicht den besten Ruf. Das ist verständlich, denn bei der Kohleverbrennung entstehen eine Reihe unerwünschter Dinge, die man eigentlich gar nicht haben möchte. Mittels moderner Filtertechnologie lassen sich etliche dieser Schadstoffe absondern und in einigen Fällen sogar einer nützlichen Verwendung (etwa als Baumaterial) zuführen. Trotz dieser technologischen Fortschritte gilt die Kohle immer noch als problematisch für Mensch und Umwelt.

Infolge dieser Problematik laufen verschiedene Lobbygruppen gegen eine weitere Nutzung der Kohle Sturm und drängen auf einen Ersatz durch andere, in erster Linie regenerative Energieträger.  Inwiefern das gelingen, bleibt abzuwarten und soll hier nicht das Thema sein.

Worum es in diesem Posting geht, ist ein Faktum, das in den gegenwärtigen Diskussionen gerne ausgeblendet, wenn es denn überhaupt zur Kenntnis genommen wird: nämlich der Beitrag der Kohle zu Entstehung moderner Industriegesellschaften.

In Großbritannien entstand erstmals eine Gesellschaft, die ein neues Niveau der Mobilität und der wirtschaftlichen Produktivität erreichte, wie es nie zuvor auf diesem Planeten der Fall gewesen war. Dies lässt sich mit Zahlen untermauern, die im wesentlichen die zweite Hälfte des 19. Jahrhunderts und das erste Jahrzehnt des 20. umfassen.

Beginnen wir mit des Ausbau des britischen Schienennetzes. 1825 fuhr dort erstmals eine Eisenbahn.

1825                       41 km
1840                   2411 km
1850                 10655 km
1860                 16790 km
1885                 30358 km
1912                 37740 km

In entsprechendem Maße erhöhte sich die Mobilität von Menschen und Gütern, die in den Jahrhunderten zuvor fast ausschließlich von Pferden geleistet wurde. Reisen wurde bequemer und schneller. Wollte man von London aus seine Tante in Edinburgh besuchen, so war das nun keine once-in-a-lifetime-Geschichte mehr. Die Züge wurden in diesem Zeitraum ausschließlich von Dampflokomotiven angetrieben, deren Dampfkessel mit Kohle befeuert wurden. 

Um ein derart ausgedehntes Schienennetz in die Welt zu setzen, brauchte man Stahl. Und zwar mehr, viel mehr als je zuvor. Hier sind die Produktionszahlen in Kilotonnen (kt), derer ich habhaft werden konnte: 

1870                3667 kt
1880                3916 kt
1890                6177 kt
1900                6154 kt
1910                7946 kt

Natürlich ging ein Teil dieser Produktion auch in den Bau moderner Dampfschiffe, die selbstredend mit Energie aus der Kohle angetrieben wurden. 

So eindrucksvoll diese Zahlen sind, sowenig sind sie überhaupt denkbar ohne die Nutzung eines Mediums, dessen Energiedichte die bis dahin bekannten Brennstoffe deutlich in den Schatten stellte. Man stelle sich vor, die Dampfkessel in den Lokomotiven und Schiffen wären mit Brennholz anstatt mit Kohle betrieben worden. Brennholz hat einen Heizwert von etwa 4 kWh/kg, Steinkohle kommt auf mehr als das Doppelte (8-9 kWh/kg). Mit anderen Worten: Mit der Kohle kam man doppelt so weit wie mit Holz. 

Nun zu den Förderzahlen auf der Insel (in Millionen Tonnen, Mt). 

1860           72 Mt
1870         106 Mt
1880         140 Mt
1890         173 Mt
1900         207 Mt
1910         258 Mt

Es ist mit Sicherheit davon auszugehen, dass in den Jahrzehnten vor 1860 die Fördermengen deutlich geringer waren. Das legt zumindest ein Vergleich mit dem Kohleabbau in Deutschland nahe. Um das Jahr 1910 wurde das Maximum der Kohleförderung erreicht, peak coal wenn man so will. Die geförderte Kohle wurde fast ausschließlich für die Stahlproduktion, für die Mobilität auf der Schiene und den Weltmeeren sowie für Heizzwecke verwendet. 

Inzwischen hatte sich nämlich auch die Bevölkerung Großbritanniens vermehrt, und zwar wie folgt:

1860          28,8 Mio
1870          31,4 Mio
1880          34,7 Mio
1890          37,6 Mio
1900          41,2 Mio
1910          45,1 Mio  

Das Auto spielte in diesem Zeitraum so gut wie keine Rolle. Abgesehen von den sicherlich noch zahlreichen Pferdefuhrwerken war für den Überlandverkehr ausschließlich die Eisenbahn von Bedeutung. Und dafür gab es nur einen einzigen Treibstoff. 

Inzwischen gibt es Dampflokomotiven nur noch im Museumsbetrieb. Mit Kohle heizen auf den britischen Inseln nicht mehr viele Leute. Hauptsächlicher Verbraucher ist die Energiewirtschaft. 2016 wurden etwa 12 Mio. t Kohle verfeuert, davon der allermeiste Teil unter Einsatz von Filtern Verglichen damit wurden die 258 Mio. t des Jahres 1910 ungefiltert in die Luft geblasen. Man fragt sich, wie die Briten das vor hundert Jahren überlebt haben. 






2017/12/01

Indikatoren

Indikatoren spielen in manchen Bereichen eine große Rolle, gelegentlich vielleicht sogar eine zu große. Letzteres ist dann der Fall, wenn die Benutzer dem Indikator eine allzu gewichtige Bedeutung beilegen und damit die Aussagekraft des Indikators überbewerten. Diese Überbewertung kann in der Folge zu Reaktionen führen, die dem ursprünglichen Signal nicht mehr angemessen sind.

Beispiel Außentemperatur: Ich sehe aus dem Fenster in den Garten und bemerke, dass sich dort Reif gebildet hat. Der Reif als (recht grober) optischer Indikator für Temperaturen unter dem Nullpunkt.  Besser ist es natürlich ein Außenthermometer zu haben, das mir die genaue Temperatur anzeigt.

Genau wie in diesem Beispiel ist es sinnvoll, sich Indikatoren als das vorzustellen, was sie ihrer Natur nach sind (oder zumindest sein sollen): Zahlen, die etwas anzeigen. Also etwa die Temperatur.

Unser Leben ist voll von diesen Anzeigern, auch wenn wir uns darüber zumeist gar nicht im klaren sind. Schulnoten gehören ebenso dazu wie Arbeitszeugnisse, Börsenkurse, Wirtschaftsprognosen und anderes. Schulnoten sind ein besonders schönes Beispiel. Im Zuge der allgemeinen Verflachung des Bildungssystems kam es zu einer zunehmenden Abwertung der Notengebung zugunsten von nichtssagendem Palaver, und zwar in der Weise, dass sich jeder Schüler gebauchpinselt fühlen konnte und sollte. Die tatsächlichen Leistungsunterschiede zwischen den Schülern, die ja unabhängig von der Notengebung existieren, sind aber deswegen nicht verschwunden, auch wenn es für oberflächliche Gemüter den Anschein haben könnte. 

Die Gegner der Notengebung führen unter anderem folgendes Argument ins Feld: Schulnoten hätten keinerlei Aussagekraft über den späteren beruflichen Erfolg eines Schülers. Das wird dann üblicherweise mit dem Verweis auf wissenschaftliche Studien begründet. Welche Studien das genau sein sollen, bleibt aber ebenso oft unklar.

Nun wäre es sicherlich vermessen zu behaupten, wer gut in der Schule war, hätte im späteren Leben stets die Nase vorn. Aber im großen und ganzen halte ich das doch für richtig, auch wenn das Leben die eine oder andere Ausnahme bereithält.

Ein Argument wie das mit der mangelnden Aussagekraft der Noten ist eigentlich nicht anderes als eine Nebelkerze. Denn es wird den Schulnoten eine Bedeutung angedichtet, die sie gar nicht haben. Deren Bedeutung ist vielmehr darin begründet, den Leistungsstand der Schüler zu ermitteln. Also herauszufinden, wie gut sie den Stoff verstanden haben, wie gewandt sie in der Anwendung gewisser Fertigkeiten sind. Es ist also zunächst einmal ein Indikator für den Schüler selbst.

Als Folge davon ist die Note dann auch ein Vergleichsmaßstab der Schüler untereinander. Sie tauschen sich über die Ergebnisse aus und erhalten damit eine Rückmeldung, wo ihre individuelle Leistung in der Klasse angesiedelt ist. Dass Lehrer und Eltern diesen Maßstab in gleicher Weise anwenden, liegt in der Natur der Sache.

Klar ist auch, dass man Noten nicht überbewerten sollte. Es gibt in unseren Tagen eine Tendenz hin zu guten und sehr guten Benotungen, schlechte werden dagegen immer seltener vergeben. Das führt zu einer Inflationierung der oberen Ränge, die ja eigentlich etwas Besonderes sein sollten. Gleichzeitig wird eben dadurch die Aussagekraft dieses Indikators entwertet. Wenn 50% eines Jahrganges sehr gut sind, dann verbietet es sich gleichsam von selbst, die übrigen zu Vollidioten zu stempeln, also bekommen die dann ein gut. Damit hätten wir einen Notenschnitt von 1,5.

Das ist natürlich nur ein hypothetisches und überspitztes Beispiel. Aber die Wirklichkeit ist davon nicht weit entfernt. In einem früheren Leben war ich mit der Evaluierung von Forschungsprojekten beschäftigt. Dabei wurden in meinem Fachbereich etwa 500 Projekte eingereicht, von denen dann etwa 80 finanziell gefördert wurden. Die Bewertungsskala reichte von 1 (unteres Ende) bis 10 (oberes Ende). Es zeigte sich in praktisch jedem Jahrgang, dass die Notenverteilung ihren Schwerpunkt zwischen 8 und 8,5 hatte. In diesem Bereich drängten sich allermeisten Projekte, und dort war es auch, wo sich die Trennlinie (cut-off) zwischen Förderung und Nicht-Förderung etablierte. Wer es dann schaffte, war letztlich eine Glückssache. Denn ist ein Projekt mit 8,2 wirklich so viel schlechter wie ein anderes mit 8,3?

Bemerkenswert war an diesen Evaluierungen noch ein anderer Umstand. Die wissenschaftlichen Gutachter mussten neben der Punktbewertung noch eine schriftliche Begründung dazu liefern. Das führt dann zu fast schon komischen Verrenkungen seitens der Gutachter. Wenn ein Antrag offensichtlich so schlecht war, dass er nur wenige Punkte bekommen konnte, dann bemühten sich die Experten im Wortgutachten möglichst viel Positives herauszustreichen, um gleichsam die geringe Punktezahl zu kaschieren. Hätte man nur den Text gelesen, so hätte man eine höhere Punktezahl erwarten können. Das war aber nicht der Fall. Umgekehrt war es aber auch so, dass Projekte mit hoher Punktezahl dann im Begleittext sehr kritisch angegangen und all nur möglichen Defizite aufgelistet wurden. Das war durch die Bank der Fall und nicht nur eine Besonderheit einzelner Gutachter.

Generell sollte man meinen, dass Forschungsprojekte wie andere Dinge auch einer Gaußverteilung gehorchen, wobei der Schwerpunkt irgendwo um den Wert 5 liegen sollte. In Wirklichkeit war diese Verteilung sehr stark nach oben verschoben, was die Aussagekraft der Bewertung extrem verzerrte, und das schien den Gutachtern (allesamt gestandene Wissenschaftler) irgendwie egal zu sein. Dadurch wird aber die Punktzahl als Indikator schon fast wertlos.

Das ist ein schönes (und zugleich praktisches) Beispiel dafür, wie die Inflationierung guter Noten einerseits den Konkurrenzkampf um die begehrten Förderplätze verschärft und ihn andererseits zur Lotterie werden lässt, weil eben etliche nur um ein paar Dezimalen abgehängt werden, die im Grund genommen nicht soviel zu bedeuten haben, wie es auf den ersten Blick scheint.



2017/11/11

Wie viel Energie für Licht?

Energiesparen ist der Trend. Schon seit Jahrzehnten, mindestens jedoch seit der Ölkrise in den 1970er Jahren. Damals war die Motivation dahingehend, dass unsere Energiereserven begrenzt und politisch verletzlich sind. Inzwischen ist die Begründung etwas abstrakter geworden, indem man den seit Jahrmillionen stattfindenden Klimawandel neuerdings als Menschenwerk verkauft.

Nun ist der Autor dieser Zeilen durchaus ein Anhänger des vernünftigen Umgangs mit Ressourcen. Aber um genau diesen vernünftigen Umgang sicherzustellen, ist es eben angebracht zu wissen, wie hoch der tatsächliche Ressourcenverbrauch ist. Und hier hapert es schon bei den meisten, die das große Verzichten predigen, ohne zu wissen, wieviel sie eigentlich verbrauchen. Und der Verbrauch an Energie, um den es naturgemäß in diesem Blog geht, ist letztlich ein Indikator für den Entwicklungsstand einer Gesellschaft.

Nehmen wir ein Extrembeispiel: Jemand, der nie vor Sonnenaufgang aufsteht und spätestens mit Sonnenuntergang zu Bett geht, braucht theoretisch gar keine Energie für Beleuchtungszwecke. Ich sage theoretisch, weil sich selbiges wohl nur bei einer Trekkingtour in einer wilden Naturlandschaft verwirklichen lässt. Im praktischen Leben eines Europäers oder Nordamerikaners dürfte dieses Szenario kaum jemals Realität sein.

Um nun den Energieverbauch für die Beleuchtung von Räumen abzuschätzen, müssen wir zunächst einmal einige Eckdaten festlegen. Wir nehmen erstens an, das jeder Raum mit 100 W elektrisch beleuchtet wird. Das ist im Zeitalter der Energiesparlampe zwar weit übertrieben, erleichtert aber die folgenden Überlegungen, für die wir uns nicht in Details verlieren und nur eine Abschätzung der Obergrenze liefern wollen.

Die zweite Annahme betrifft den Lebensrhythmus der Bewohner unserer Modellwelt. Sie gehen um Mitternacht zu Bett, stehen um 6:00 Uhr morgens auf und gehen um 8:00 Uhr außer Haus.

Diesen immer wiederkehrenden Ablauf setzen wir nun in Bezug zur Tageslichtdauer. Es versteht sich von selbst, dass man im Sommer weniger Licht benötigt als im Winter. In unseren mitteleuropäischen Breiten geht die Sonne am längsten Tag des Jahres, also am 21. Juni gegen 3:00 Uhr früh auf und gegen 21:00 Uhr unter. Dies ist das sogenannte Sommersolstitium. Der andere Extrempunkt des Jahres ist das Wintersolstitium am 21. Dezember, wo die Sonne erst gegen 8:00 Uhr aufgeht und gegen 16:00 Uhr wieder unter dem Horizont verschwindet.

Was bedeutet das für die Beleuchtungsdauer? Nun, im Juni brauchen morgens überhaupt kein Licht und abends nur 3 Stunden, macht also insgesamt 300 Wh (Wattstunden). Im Dezember müssen wir morgens zwei Stunden das Licht anschalten und abends dann für acht Stunden, wobei wir weiters annehmen, dass wir bereits bei Sonnenuntergang zu Hause sind. Wir kommen dann auf 1000 Wh, also eine Kilowattstunde. Der Mittelwert dieser beiden Extrempunkte beträgt 650 Wh (pro Tag). Wenn wir das mit der Anzahl der Tage eines Jahres (365) multiplizieren, erhalten wir einen Jahresverbrauch von 237,25 kWh pro Raum.

Das ist nun, wie gesagt, ein Maximalwert, der in der Praxis kaum jemals erreicht werden dürfte. Mit den heutigen Energiesparlampen sollte es ein Leichtes sein unter 100 kWh pro Jahr und Raum zu bleiben. Diese Zahl lässt sich leicht merken und kann als Referenzwert dienen, wenn wir uns mit anderen Verbrauchswerten beschäftigen.


2017/11/04

Ist Österreich wirklich atomstromfrei?

In Österreich ist die Ablehnung der nuklearen Stromerzeugung mindestens ebenso groß wie bei unseren deutschen Nachbarn. Hier geht es sogar soweit, dass sich mehr oder weniger prominente Politiker öffentlich gegen Kernkraftwerke im benachbarten Ausland engagieren und damit den Eindruck erwecken, man könnte den Nachbarländern vorschreiben, wie sie ihren Strom zu erzeugen hätten.

Nun trifft es sich, dass Österreich im europäischen Stromverbund große Mengen an Energie von eben jenen Ländern bezieht, die ihrerseits Kernkraftwerke betreiben (Deutschland, Tschechien et.). Es sollte sich ja inzwischen herumgesprochen haben, dass sich der Strom, der durch die Leitungen fließt, nicht nach seiner Herkunft unterscheiden lässt. Dies ist eine physikalische Unmöglichkeit. Aber mit Naturgesetzen tun sich Umweltbewegte mitunter schwer, und so wird tapfer die Illusion aufrechterhalten, die gesamte Elektrizität in Österreichs Netzen sei nuklearfrei.

Um dieses Dilemma anhand eines anschaulicheren Beispiels zu verdeutlichen: Die Donau wird von mehreren Zuflüssen wie Isar, Inn und Traun gespeist. Wenn nun jemand weiter östlich dieser Zuflüsse Wasser aus der Donau entnimmt und behauptet, dieses Wasser sei völlig frei von Traunwasser, so ist das natürlich Unsinn. Es besteht keine Möglichkeit, den Anteil des Traunwassers vom Rest zu separieren.

Und genauso verhält es sich mit dem Strom, der in verschiedenen Kraftwerken erzeugt wird. In der Steckdose des Verbrauchers lässt sich der individuelle Kraftwerksstrom ebenso wenig identifizieren wie in der Überlandleitung.

Nachdem dieser Sachverhalt keinerlei Deutungsspielraum zulässt, versuchen einige bekannte Großbetriebe (Google, Apple, die Deutsche Bundesbahn, um nur einige zu nennen) und Staaten (Österreich) ihr Umweltgewissen mit einem Taschenspielertrick reinzuwaschen: sie kaufen sich Stromzertifikate von "grünen" Produzenten, die mengenmäßig ihrem Verbrauchsprofil entsprechen. Damit ist, rein rechnerisch, die Bilanz unbefleckt, auch wenn sich dies faktisch nicht behaupten lässt. In Österreich ist sogar eine ganze Agentur damit beschäftigt: E-Control.

Auf dem stets lesenswerten Blog Energy Matters hat sich Roger Andrews unter dem Titel The myth of a nuclear-free Austria ausführlich mit der Materie beschäftigt. Sehr erhellend.


2017/10/24

LKW versus Lastenfahrrad - ein Vergleich

Lastenfahrräder werden immer beliebter. In manchen Städten sind sie schon ein durchaus geläufiger Anblick. In Zeiten des allgegenwärtigen Gründenkens haftet ihnen der Nimbus des ökologisch Korrekten an: also weniger Abgase, weniger Feinstaub und alles in allem einfach umweltfreundlicher.

Zeit für einen Vergleich aus energietechnischer Sicht. Entsprechend den Angaben des deutschen Umweltbundesamtes (also gleichsam die Gralshüter des Gründenkens) verbraucht ein Lkw im statistischen Durchschnitt etwa 0,4 kWh pro Tonnenkilometer. Mit anderen Worten: für jede Tonne, die per Lkw einen Kilometer weit bewegt wird, schlagen 0,4 kWh zu Buche.

Wie sieht dem gegenüber die Bilanz des Lastenfahrrads aus? Auf dieser Webseite gibt es Informationen zum Energieverbrauch beim Radfahren. Nehmen wir der Einfachheit halber an, eine Last von 100 kg werde mit so einem Ding transportiert. Der Lastenradfahrer (80 kg schwer) sei mit einer Geschwindigkeit von 20 km/h unterwegs, und zwar eine volle Stunde lang. Das entspricht einem Energieverbrauch von 1,68 kWh.

Wenn wir insgesamt eine Last von einer Tonne (1000 kg) transportieren wollen, dann müssen wir diese auf mehrere Fahrräder verteilen, sagen wir zehn mal 100 kg. Die zehn Lastenradfahrer verbrauchen dann 16,8 kWh auf einer Strecke von 20 km. Wenn wir das nun durch 20 dividieren, bekommen wir den Energieverbrauch pro Tonnenkilometer: also 0,84 kWh.

Wir sehen also, dass der Transport mit dem Lkw deutlich energieeffizienter ist als jener mit dem Lastenrad. Es sei natürlich unbenommen, dass letzteres deutlich flexibler ist, wenn es darum geht, kleinere Lasten auf verstopften Straßen zu bewegen. Aber es ist wohl - nicht nur aus energetischer Sicht - etwas unrealistisch, den gesamten Lkw-Verkehr auf das Lastenrad verlegen zu wollen.

2017/10/10

Die Start-Up-Wette

Start-ups gelten als Hoffnungsträger, um aus der ökonomischen Dauerkrise zu kommen. Man verspricht sich Innovationen, Arbeitsplätze und nicht zuletzt neue Steuereinnahmen. Allerdings sind Start-ups risikobehaftet. Denn man weiß, dass etwa 90% dieser Hoffnungsträger nach zwei bis drei Jahren nicht mehr existieren. Und nur die verbliebenen 10% schaffen es, im Wirtschaftsleben Fuß zu fassen und sich gegen die alte Konkurrenz durchzusetzen. Und noch weniger werden zu echten Geldmaschinen à la Google, Amazon oder Microsoft.

Der Hype um die Start-ups ist manchen politisch Verantwortlichen wohl etwas zu Kopf gestiegen. Deshalb gibt es nun mancherorts Fördergelder (gesponsort aus Steuereinnahmen), in der Erwartung, dass im Teich der gerade geschlüpften Entenbabys der eine oder andere Schwan verborgen sein mag, der alle anderen Entlein prächtig überstrahlt und die Verluste aus den abgesoffenen Küken spielend wieder ausgleicht.

Ist das wirklich ein realistisches Szenario? Machen wir eine kleine Rechnung. Nehmen wir an, wir haben 10 Start-ups, die sich um unseren Geldsegen bewerben. Jedes Jungunternehmen bekommt von uns einen Scheck über eine Million Euro. Nach drei Jahren schauen wir wieder nach, was aus den jungen Küken geworden ist. Im statistischen Mittel sind nach dieser Zeit neun von ihnen verschwunden, und nur eines ist noch im Teich übrig. Mit anderen Worten: Wir haben bei unserer Wette (und um nichts anderes geht es) 9 Millionen versenkt, und nur eine Million ist noch im Rennen, um uns reich zu machen. Es ist vielleicht etwas zuviel verlangt, von einem erfolgreichen Start-up zu erwarten, dass es nach drei Jahren bereits soviel verdient, um unsere gesamten bisher angehäuften Verluste wieder auszugleichen. Aber vielleicht nach 10 Jahren? Um per Saldo ohne Verluste aus diesem Gambling auszusteigen, müssen wir also erwarten, dass sich der Wert des einen erfolgreichen Start-ups irgendwann verzehnfacht hat.

Man muss sich also fragen, wie viele Jungunternehmen es gibt, deren Wert innerhalb eines bestimmten Zeitraums um einen Faktor 10 zulegt. Nehmen wir an, unser Start-up hätte sich innerhalb von zehn Jahren im Wert verdoppelt. Keine schlechte Leistung, wie ich meine. Und dennoch wäre unser anfängliches Investment in diesem Fall immer  noch negativ. Denn alles, was schlechter ist als ein Faktor zehn, macht uns effektiv ärmer. Alles, was besser ist, macht uns dafür reicher.

Was hier abgeht, ist also eine hochriskante Wette. Die Frage ist, ob diese Wette mit Steuergeldern finanziert werden muss.










2017/10/07

Windstromerzeugung in Deutschland: 2016

Die folgende Abbildung zeigt die stündliche Windstromproduktion in Deutschland im Jahre 2016. Die entsprechenden Daten stammen von Paul-Frederik Bach, der in den letzten Jahren eine ganze Reihe von Informationen über regenerative Energieerzeugung in verschiedenen Ländern zusammengetragen hat.


Hierzu noch ein paar statistische Eckdaten:

Die durchschnittliche Stromproduktion pro Stunde betrug in diesem Jahr 8765 MWh mit einer Standardabweichung von 6865 MWh. Die Minimal- bzw. Maximalwerte betrugen 135 bzw. 33626 MWh, d.h. zwischen diesen beiden Extremen schwankte die Einspeisung aus Windkraftanlagen.

Aus der Abbildung wird unmittelbar der schwankende Charakter der Windstromerzeugung klar.

2017/09/02

Stromerzeugung im Vergleich

Elektrifizierung ist der Trend unserer Tage. Alles soll wenn möglich elektrisch betrieben werden. Selbst das Automobil, bislang der Inbegriff der Fortbewegung mit fossilen Brennstoffen, soll in Zukunft nur noch mit Elektromotor und Batterie das Auslangen finden.

Welche Konsequenzen das für den Verkehrssektor hat, wurde in meinem letzten Post angedeutet. Die Stromproduktion müsste im Wesentlichen soweit ausgebaut werden, dass der Energiebedarf des Straßenverkehrs ausreichend abgedeckt werden kann.

Wenn heutzutage von (elektrischer) Energieerzeugung die Rede ist, fallen im Allgemeinen die folgenden Begriffe:

  • Windenergie
  • Photovoltaik
  • Wasserkraft
  • Kohle- bzw. Gaskraftwerke, selten auch Dieselgeneratoren
  • Kernkraft 

Elektrische Anlagen werden üblicher Weise durch ihre Leistung charakterisiert. Ein Motor mit 1000 Watt (1 kW) Leistung verbraucht pro Stunde eine Energie von einer Kilowattstunde (1 kWh). Ein Generator ist letztlich nichts anderes als ein quasi umgekehrt laufender Motor, wobei die technischen Charakteristika dieselben bleiben. Somit erzeugt ein Generator von 1 kW Nennleistung pro Stunde eine Energie von 1 kWh. Pro Tag sind das dann 24 kWh und pro Jahr entsprechend 8760 kWh. Das gilt natürlich nur, wenn der Generator das ganze Jahr über mit voller Leistung im Einsatz war. Ist er hingegen nur mit halber Leistung (50%) bei der Arbeit, dann produziert er eben auch nur 4380 kWh.

Dieses Verhältnis von tatsächlich produzierter Energie zu theoretisch möglicher Energieerzeugung nennt man Nutzungsgrad (capacity factor). Der Idealwert ist 100 % und wird in der Realität so gut wie nie erreicht. Die Gründe hierfür sind vielfältig. Doch darüber ein andermal mehr.

Sehen wir uns die Situation in Deutschland an. Die untenstehende Abbildung zeigt die Nutzungsgrade verschiedener Stromerzeugungsquellen. Die Rohdaten für diese Darstellung kommen übrigens von der europäischen Statistikbehörde Eurostat und gelten für das Jahr 2015.



Man sieht sofort, dass der nukleare Sektor gut 90% von dem liefert, was theoretisch möglich ist. Im Bereich der Winderzeugung liegt man bei knapp 20%.

Vergleichen wir das nun mit der Situation in Österreich, so fällt auf, dass es keinen derart dominanten Teil gibt wie in Deutschland. Wasserkraft ist hier an erster Stelle zu nennen mit etwas über 30% Nutzungsgrad. Die Ausbeute der Windräder ist im Alpenland etwas größer als in Deutschland. Das dürfte sich aber spätestens dann zugunsten der nördlichen Nachbarn ändern, wenn mehr und mehr offshore Windkraftanlangen in Dienst gehen. Bemerkenswert ist der niedrige Nutzungsgrad der Stromerzeugung mit fossilen Brennstoffen (etwa 15%). Das deutet meiner Ansicht nach darauf hin, dass diese Kraftwerke einen sehr unwirtschaftlichen Betrieb fahren.




Sehen wir uns schließlich noch die Lage in Großbritannien (UK) an. Auch dort werden regenerative Energien sehr stark gefördert.


Wie schon in Deutschland liegt auch hier die Stromerzeugung aus Kernkraft weit vor allen anderen Quellen mit deutlich über 70%. Solar schneidet mit weniger als 10% noch schlechter ab als in Deutschland und Österreich. Es gibt eben etwas weniger Sonne auf der Insel. Bei der Winderzeugung hat UK allerdings die Nase vor den beiden anderen, was wohl auch mit dem großen offshore Anteil zu tun hat. Auch die fossilen Kraftwerke weisen auf der Insel mit annähernd 40% einen deutlich besseren Nutzungsgrad auf.

Als Fazit halten wir fest, dass die regenerativen Energien längst nicht an die Nutzungsgrade nuklearer Stromerzeugung herankommen. Windenergie kann günstigstenfalls auf etwas über 30% kommen, besitzt aber den Nachteil, dass sie sehr unstetig und damit kaum grundlastfähig ist. Mit der Unstetigkeit des Windstroms werde ich mich in einem anderen Posting beschäftigen. Photovoltaik kommt in unseren Breiten kaum über 10% hinaus und ist ebenfalls unstetig. Abgesehen von ihrer schwachen Ausbeute leiden die regenerativen Energien (außer Geothermie und Biomasse, die auch höhere Nutzungsgrade aufweisen, aber im gesamten Strommix nur eine kleine Rolle spielen) darunter, dass sie starken Schwankungen unterworfen sind. Daran können auch die besten Vorhersagemodelle, die alle Windänderungen bereits im Voraus erfassen sollen, nichts ändern. Denn selbst wenn man genau weiß, dass der Wind in einer halben Stunde stark abflauen wird und man deshalb ein Kraftwerk mit fossilen Brennstoffen hochfahren muss, so ändert das nichts daran, dass letzteres immer in Bereitschaft gehalten werden muss für den Fall der Fälle. Dieser Bereitschaftsmodus ist mit einem sehr schlechten Wirkunsgrad verbunden, was einem ökonomischen Betrieb durchaus abträglich ist.

2017/08/15

2040 in GB

In Großbritannien gibt es Bestrebungen, ab 2040 keine Autos mit Verbrennungsmotoren mehr zuzulassen. Andere Länder haben Ähnliches bekundet.

Eines der wesentlichsten Elemente unserer Gesellschaft ist die allgegenwärtige Mobilität. Wenn man sich überlegt, woran eigentlich unser Wohlstand hängt, dann ist die Mobilität ein zentraler Faktor. Menschen und Güter sind mobil. Millionen von Menschen fahren täglich mehrere Kilometer zur Arbeit, mit öffentlichen Verkehrsmitteln oder mit ihrem Privatfahrzeug. Millionen Tonnen an Gütern werden täglich von einem Ort zum anderen bewegt. Nicht aus Jux und Tollerei, sondern allein zu dem Zweck, unsere Wirtschaft am Laufen zu halten. Man stelle sich vor, all das würde plötzlich aufhören, und male sich die Konsequenzen aus.

Doch zurück zu Großbritannien. Versuchen wir ansatzweise uns vorzustellen, was ein Umstieg von benzingetriebenen Autos auf Elektrofahrzeuge nach sich ziehen würde. Dabei setzen wir voraus, dass das Niveau der Mobilität gleich bleibt. Laut der britischen Statistikbehörde belief sich 2014 der Benzinverbrauch auf 13,9 Mio. Tonnen Rohöleinheiten, der Dieselverbrauch betrug 25 Mio. Tonnen Rohöleinheiten. Wenn man diese Werte auf elektrische Einheiten umrechnet, erhält man 161,7 TWh (Terawattstunden) für Benzin bzw. 290,8 TWh für Diesel.

Wenn man nun die Mobilität beibehalten möchte, dann führt kein Weg daran vorbei, die Energie, die heute noch von Benzin und Diesel geliefert wird, aus anderen Quellen zu ersetzen. Denn um Menschen und Güter in Bewegung zu halten, bedarf einer bestimmten Energie. Ohne Physik geht es definitiv nicht.

Beschränken wir uns im folgenden auf benzingetriebenen Fahrzeuge, um eine Vorstellung davon zu erhalten, welche Ersatzkapazitäten an elektrischer Energieerzeugung wir benötigen. Ich unterstelle ferner, dass der Elektroantrieb gross modo doppelt so effizient ist wie ein Benziner. Ob das tatsächlich der Fall ist, muss sich noch zeigen. Nehmen wir also an, dass wir anstatt der 161,7 TWh lediglich 80 TWh für den Betrieb der Elektroautos brauchen. Um diese Energie zu erzeugen, brauchen wir neue Kraftwerke, denn der bestehende Kraftwerkspark reicht längst nicht aus, um die Mobilität abzudecken.

Wieviel sind 80 TWh? Diese Zahl wird etwas deutlicher, wenn man sich vorstellt, dass das beste deutsche Kernkraftwerk, das derzeit noch am Netz ist (Isar 2), pro Jahr etwa 11,5 TWh liefert. Jetzt wird die Sache etwas klarer. Um allein die britischen Benziner auf elektrisch umzustellen, braucht es also nicht weniger als 7 (in Worten: sieben) neue Kernkraftwerke des Typs Isar 2.

Diese Rechnung unterstellt, wie gesagt, eine doppelt so hohe Effizienz der Elektroautos verglichen mit den benzingetriebenen. Wenn man also das Vorhaben ernst meint, ab 2040 nur noch Stromer zuzulassen, dann sollte man schon jetzt mit der Planung des dazu benötigten Kraftwerksparks beginnen. Bekanntlich gehen für die Planung und Errichtung von Großkraftwerken leicht mehr als 10 Jahre ins Land. Und 2040 ist nicht mehr weit.

Und wir sollten auch nicht vergessen, dass wir bislang nur die Benziner betrachtet haben. Der Dieselverbrauch ist (siehe oben) um einiges höher. Da kommen dann noch mal vorsichtig geschätzte 10 Kraftwerke dazu. Es gibt also viel zu tun bei der Verkehrswende.











2017/08/13

Feinstaub - Muss Gehen bald verboten werden?

In letzter Zeit war wieder häufiger von Feinstaub die Rede. Die etwas verquere Diskussion über Dieselautos in Deutschland drehte sich unter anderem auch um die allgegenwärtigen Feinstaubemissionen. Wenn man informierte und sachliche Quellen zu Rate zog, konnte man herausfinden, dass die Feinstaubbelastung durch Dieselmotoren nur einen Teil (und zwar den kleineren) des Problems ausmacht.

Das liegt vor allem daran, dass Staub aus vielerlei Ursprüngen in unser Leben tritt. Einer davon ist der Abrieb, der sich zwangsläufig beim Gehen ergibt. Bestimmt ist Ihnen, verehrter Leser, schon aufgefallen, dass sich die Absätze Ihrer Schuhe mit der Zeit mehr und mehr abrunden. Je nach zurückgelegter Laufstrecke müssen sie früher oder später repariert werden. Aus meinen eigenen Erfahrungen ist dies mindestens einmal im Jahr nötig.

Die Abnutzung der Schuhabsätze (und Sohlen) erfolgt graduell und ist von einem Tag zum nächsten kaum feststellbar. Der Grund für diesen Prozess ist die Reibung zwischen dem Schuh und der Straße. Und natürlich nutzen sich manche Schuhe schneller ab als andere. Jener Teil des Absatzes, der nach einiger Zeit nicht mehr am Schuh ist, hat sich als Staub in die Umwelt verflüchtigt.

Machen wir eine kleine, konservative Abschätzung, wieviel Staub sich da ergibt. Der Abrieb meiner Schuhe beträgt pro Jahr etwa ein Gramm, bei einer geschätzten Gehleistung von ca. 1 km pro Tag. Das ist als unterer Wert zu verstehen, d.h. de facto wird es wohl mehr sein. Doch darauf kommt es hier nicht an. Wir halten uns an den vorsichtigen Schätzwert von 1 g. Diesen Wert müssen wir mit der Anzahl der Bewohner einer beliebigen Stadt multiplizieren, um das gesamte Staubaufkommen verursacht durch Fußgänger zu erhalten.

Hoch gerechnet auf eine Stadt wie Brüssel, in der sich an Wochentagen mehr als eine Million Menschen aufhalten, bedeudet das mindestens eine Million Gramm an Schuhabrieb pro Jahr. Das entspricht einer Tonne an Feinstaub. Mindestens, wie gesagt.

Dazu kommen noch Staubemissionen aus dem Verkehr (Reifenabrieb etc.), der Industrie und anderen Quellen, die zugegeben etwas höher ausfallen.

Wer also meint, dass das Gehen ökologisch völlig unbedenklich sei, der irrt. Wie überhaupt jede menschliche Aktivität einen Eingriff in die Natur darstellt. Die Frage ist  nur, wann die Grenzwerte für Feinstaub so weit gesenkt werden, dass auch Fußgänger von Verboten betroffen sein werden.


2017/07/23

Wärmedämmung - Eine Investition in die Zukunft?

Zum Thema Wärmedämmung gibt es sehr kontroverse Meinungen. Die einen loben die Energieersparnis und den Beitrag zum sogenannten Klimaschutz. Die anderen verweisen auf hohe Kosten und geringe tatsächliche Einsparungen. Wer hat Recht? - Eine mehr als legitime Frage.

Aus persönlichen Erfahrungen kenne ich sowohl gedämmte als auch ungedämmte Behausungen. Ich habe vor etlichen Jahren in einer Wohnung gelebt, die nur einfach verglaste (und zudem recht alte) Fenster hatte. Im Winter hatte es dort ungeheizt etwa 16°C. Stellte ich abends die Heizung an, wurde es zwar schnell knuffig warm, nach dem Abschalten fiel die Temperatur allerdings fast ebenso schnell wieder auf den Ausgangswert zurück. Dieses Problem ließ sich durch den Einbau neuer doppelt verglaster Fenster beheben. Es blieb deutlich länger warm. Nur tauchte jetzt eben ein anderes Problem auf: Es musste regelmäßig gelüftet werden, weil sich sonst Schimmel bilden konnte. Schon hieraus sollte klar werden, dass es sich bei der Frage der Wärmedämmung keineswegs um eine simple Win-win-Situation handelt.

Der Brand des Grenfell-Towers in London und die Katastrophe, die sich daraus ergab, nicht zuletzt durch die Verwendung brennbarer Dämmmaterialien, hat wieder einmal die Frage aufgeworfen, wie sinnvoll es überhaupt ist, bestehende Objekte wärmemäßig zu isolieren.

Hier findet der interessierte Leser, was in den Medien nicht zu finden war,  nämlich eine Analyse des energetischen und finanziellen Nutzens der nachträglichen Isolation des Grenfell-Towers. Ein guter Ausgangspunkt ist ein Blogpost in Euran Mearns Energy Matters und die sich daran anschließende Diskussion. Darin kam ein Teilnehmer zu der Abschätzung, dass die Amortisationszeit für die Wärmedämmung des Hochhauses mit etwa 250 Jahre veranschlagt werden müsste. Eine beeindruckende Zahl, die es wert ist, genauer unter die Lupe genommen zu werden. Dazu schätzte der Diskutant die Außendämmfläche des Hochhauses ab, nahm dazu noch die Wärmeleitungswerte der verwendeten Materialien und die Jahresdurchschnittstemperatur in London zur Hand und konnte daraus die Energieeinsparung bestimmen. Zusammen mit den Gesamtkosten für die Renovierung des Grenfell-Towers und den aktuellen Energiekosten, lässt sich somit die Amortisationszeit abschätzen.

Wir werden hierzu eine ähnliche Berechnung anstellen, die jedoch von einem ganz anderen Modell ausgeht, und anschließend unsere Erkenntnisse mit der obigen Abschätzung vergleichen. Der Grenfell-Tower besitzt mit seinen 24 Stockwerken eine Gesamtfläche von etwa 9600 m^2. Um die Wohnfläche mit dem Energieverbrauch in Beziehung zu setzen, benutzen wir statistische Daten aus Schweden, die dort jährlich erhoben werden. Schweden ist tendenziell kälter als England, kann daher für unsere Abschätzung als Extremfall dienen. Das heißt, unsere Werte für die Energieersparnis werden höchstwahrscheinlich über jenen aus London liegen. Das bedeutet gleichzeitig aber auch, dass die Amortsationszeit aus unserer Berechnung noch am unteren Ende dessen liegt, was man für England erwarten sollte. Denn wenn man weniger Energie spart, dauert es eben auch länger, bis man die Kosten wieder eingespielt hat.

Zurück zu den schwedischen Daten. Dort betrug der durchschnittliche Energieverbrauch (Heizung und Warmwasser) für Gebäude, die zwischen 1971 und 1980 gebaut wurden, 135 kWh pro m^2 und Jahr (2015). Der entsprechende Wert für Gebäude aus den Jahren zwischen 2001 und 2010 lag bei 108 kWh pro m^2 und Jahr.

Der gesamte Energieverbrauch des ungedämmten Hochhauses betrug also etwa 1296 MWh pro Jahr. Nach der Dämmung sollte der Verbruach auf etwa 1037 MWh gefallen sein. Die Differenz beträgt somit 259 MWh, also grosso modo 20%.

Womit wurde geheizt? Bei Bauten aus jener Zeit wahrscheinlich mit Öl oder Gas. Rechnen wir das Ganze mal mit Öl durch. Eine MWh Heizöl kostet in Großbritannien ca. 46 GBP (Stand Juni 2017). Die Kostenersparnis pro Jahr beträgt also etwa 12 000 GBP. Setzen wir das ins Verhältnis zu den Gesamtkosten für die Wärmedämmung von 2,6 Mio. GBP, so erhalten wir eine Amortsationszeit von 218 Jahren.

Wie sieht es mit Gas aus? Hier stehen Kosten von 28 GBP pro MWh zu Buche. Die Amortisationszeit wäre dann mehr als 350 Jahre.

Welche Art der Heizung wir auch zugrunde legen, die Zeit zur Einspielung der Kosten für die Wärmedämmung dürfte deutlich über der Lebensdauer des Hochhauses liegen. Um es noch einmal zu betonen, unser Modell beruht auf Vergleichsdaten aus Schweden. Die entsprechenden Werte für England sollten etwas niedriger sein, was auch für die Einsparungswerte gilt. Damit dürfte unsere Abschätzung am unteren Ende der Amortisationszeit liegen. Wir sehen gleichzeitig, dass die Abschätzung des Kommentators aus Energy Matters durchaus in die richtige Richtung wies.

Fazit: Was sich auf den ersten Blick als ein gutes Investment präsentiert, wird bei genauerer Betrachtung eine finanzielle Bürde über Jahrhunderte.



2017/06/27

Ohne Tierversuche?

Kürzlich stieß ich zufällig auf die Kampagne eines bekannten Körperpflegelabels gegen Tierversuche. Was soll man davon halten?

Nun ja, die Antwort ist aus meiner Sicht keineswegs eindeutig. Und das hängt wiederum mit einer Unterscheidung zusammen, die hier ganz wesentlich ist: Tierversuche in der medizinischen Forschung und Tierversuche für kosmetische Produkte.

Zunächst zu ersterem. Im medizinischen Bereich sind Tierversuche auf absehbare Zeit wohl unverzichtbar. Wenn wir neue Medikamente oder Behandlungsverfahren testen wollen, dann ist es selbst mit der ausgefeiltesten Technologie unserer Tage nicht möglich, auf Tierversuche zu verzichten. Zwar können unsere Computer erstaunliches, aber eine perfekte Imitation eines lebenden Organismus ist im Augenblick noch in weiter Ferne. Zu komplex ist das Zusammenspiel der einzelnen Komponenten eines Lebewesens, um es adäquat mit einem Computer abbilden zu können.

Es versteht sich von selbst, dass das Leiden der Tiere auf ein absolutes Minimum reduziert werden muss. Aber es geht eben nicht ohne, solange es keinen gleichwertigen Ersatz gibt.

Im Bereich der Kosmetik sieht die Sache etwas anders aus. Hier geht es ja nicht um Krankheiten, die dem Menschen zu schaffen machen. Vielmehr geht es um ein sekundäres Bedürfnis, nämlich sein Äußeres in einem besseren Licht erscheinen zu lassen. Ob es dafür Tierversuche braucht, lässt sich in der Tat hinterfragen. Ich meine, dass man Tiere nicht für kosmetische Forschung heranziehen soll.

Insofern stimme ich mit der oben erwähnten Kampagne überein. Gleichwohl steht ein gewisses Maß an Heuchelei hinter dieser PR-Maßnahme (etwas anderes ist es ja nicht). Denn auch die Produkte dieses Labels stützen sich auf Erkenntnisse, die häufig, wenn nicht sogar in der überwiegenden Zahl der Fälle, mittels Tierversuchen gewonnen wurden. Aus diesen Experimenten weiß man eben, welche Reaktionen bestimmte chemische Substanzen auslösen oder nicht. Der Kunde meint dann, ein Produkt zu kaufen, das ohne Anwendung von Versuchstieren entwickelt wurde. Doch das könnte sich als gewaltiger Irrtum erweisen, wie immer wenn die Moral über das Denken zu triumphieren meint.  

2017/06/05

Der Innovationsfetisch

Ich erinnere mich noch recht genau, wann ich zum ersten Mal den Begriff "Innovation" gehört habe. Es war Anfang der 1980er Jahre in einer Broschüre, die ich immer noch mit der Person Hannes Androsch assoziiere. Ob er selbst der Autor der Broschüre war, weiß ich nicht mehr.

Also mindestens seit jenen Tagen geistert dieser Begriff durch die Lande. Und auch heute reden Politiker ständig von Innovation, so als ob es sich um ein völlig neues Konzept handelte. Innovation ist kurz gesagt nichts anderes als die Ablösung des (schlechteren) Alten durch das (bessere) Neue. Es geht also um Fortschritt.

Nun ist der Fortschritt in den letzten Jahrzehnten etwas unter Druck gekommen, pikanterweise gerade von jenen politischen Strömungen, die sich in ihrer Anfangszeit als fortschrittlich deklarierten.

Gleichwohl ist der Begriff Innovation positiv besetzt. Es gibt nahezu kein öffentliches Forschungsprogramm, in dem dieser Begriff nicht prominent vertreten wäre. Allein in Europa fließen jedes Jahr mehrere Milliarden in diesen Bereich.

Wenn man sich die großen Innovatoren der letzten Jahrzehnte anschaut, als Beispiele seien genannt: Microsoft, Hewlett-Packard, Google, dann fällt auf, dass diese Ideen nicht von den Big Players der etablierten Industrie kamen, sondern allesamt auf spleenige Tüftler zurückzuführen waren, die sich in eine Sache verbissen hatten, bis sie ... Erfolg hatten. Zugegeben, ein Quentchen Glück kam auch dazu. Denn von unzähligen anderen Erfindern mir ihren ebenfalls großartigen Einfällen hat man nie wieder etwas gehört.

Kurz gesagt: die entscheidenden Geistesblitze kommen weniger von bestehenden Großkonzernen, sondern fast immer von unkonentionellen Einzelgängern. Insofern ist es völlig richtig, den zahllosen Start-ups entsprechende Aufmerksamkeit zu schenken. Denn das eine oder andere Start-up von heute könnte durchaus das Google von morgen sein. Könnte - wohlgemerkt. Und genau deswegen fließen unter anderem in Europa Milliarden in diesen Bereich, um im überfüllten Karpfenteich der neuen Businessideen den lang ersehnten Hecht zu finden.

So richtig dieser Ansatz ist, hat er doch ein Geschmäckle. Und zwar aus folgendem Grund: Ich meine, dass es heute weniger leicht ist, mit einer bahnbrechenden Innovation den gesamten Weg von der sprichwörtlichen Entwicklergarage bis zum weltumspannenden Konzern zu gehen, als es noch vor - sagen wir - vierzig Jahren war. Warum ist das so?

Nun, ich glaube, aus zweierlei Gründen.

Erstens: die Gesetze. In den vergangenen vierzig Jahren (um bei unserer Vergleichsperiode zu bleiben) ist die Gesetzgebung geradezu explodiert. Ein Jungunternehmer, der seine brilliante Idee auf den Markt bringen möchte, muss sich in erster Linie um die technischen Aspekte seiner Erfindung kümmern. Dazu kommt, ebenfalls extrem wichtig, der betriebswirtschaftliche Erfolg der jungen Firma. Man will ja der Konkurrenz die Stirn bieten und nicht von ihr aus dem Markt gefegt werden. Die Kombination dieser beiden Faktoren, technische Innovation und marktwirtschaftliches Durchsetzungvermögen, ist bereits mehr als ausreichend, um den Jungunternehmer ständig unter Strom zu halten. Wenn dann aber auch noch die Berücksichtigung juristischer Aspekte dazu kommt, wird die Sache endgültig unübersichtlich. Man könnte sich wohl juristischen Beistand einkaufen (und viele werden das wohl tun), aber das ist nicht billig. Und überflüssiges Geld haben Start-ups in den wenigsten Fällen.

Zweitens: die Konkurrenz, also insbesondere Konzerne, die bereits über eine solide Marktmacht verfügen. Stellen Sie sich vor, Sie sind der CEO eines Technologieunternehmens und sehen ein erfolgreiches Start-up am Horizont, das mit einer wirklich großartigen Idee auf dem Weg ist, Ihnen das Wasser abzugraben. Was tun? Ganz einfach: den Konkurrenten übernehmen. Und so geschieht es auch oft. Der Große schluckt den Kleinen und mit ihm dessen Know-how, um es entweder selbst zu verwerten oder dessen Verwertung durch andere zu verhindern. Und man kann es den Kleinen nicht verdenken, dass sie das Angebot annehmen. Denn zum einen lächelt ein schöner finanzieller Gewinn und zu andern mag es auch verführerisch sein, die Tretmühle des Start-ups zu verlassen zugunsten eines "normalen" Lebens.

Mehr als 80 Prozent der Neugründungen überleben die ersten Jahre nicht. Das weiß jeder Jungunternehmer oder sollte es wenigstens wissen. Aber die wenigen, die es schaffen, haben das Zeug dazu, der Welt ihren Stempel aufzudrücken. Aber auch nur dann, wenn sie es schaffen, ihren Weg alleine zu gehen, ohne übernommen zu werden. Denn jedes Mal, wenn ein erfolgreiches kleines Unternehmen von einem großen Konkurrenten aufgekauft wird, geht ein Stück Vielfalt verloren. Man könnte auch sagen: Marktmacht schlägt Kreativität.







2017/05/28

Das Schweigen zu Pellworm

Die Nordseeinsel Pellworm hat sich das ambitionierte Ziel gesteckt, bis 2020 eine "100 Prozent EE-Insel" zu werden. So entnehmen wir es einem SPON-Artikel aus dem Jahr 2012.

Inzwischen ist einiges passiert. Das Projekt SmartRegion Pellworm wurde geboren und eine eigene Webseite informiert die Öffentlichkeit rudimentär über den Stand der Dinge. Die Projektergebnisse sind ebenfalls im Internet verfügbar, allerdings nach meinem Dafürhalten nicht in der gebotenen Klarheit und Ausführlichkeit. Ich habe deshalb vor einiger Zeit eine Anfrage an die Projektbetreiber gerichtet mit der Bitte um genauere Details. Diese wurden jedoch nicht herausgerückt. Vielleicht gibt es ja gute Gründe dafür.

Was ist auf der Insel geschehen? Zusätzlich zu den bereits bestehenden Solar- und Windkraftanlagen wurde ein Hybridkraftwerk mit mehr als 1 MW Leistung errichtet. Dazu gesellte sich noch ein Biomassekraftwerk mit einer Leistung von 500 kW. Da selbst den überzeugtesten EE-Anhängern klar ist, dass Sonne und Wind nicht im Dauerbetrieb laufen, musste für allfällige Dunkelflauten vorgesorgt werden. Dies geschah mit dem Bau zweier großer Batteriespeicher, dem Einbau von 11 PV-Haushaltsspeichern sowie der Montage von Elektrospeicherheizungen in sechs Haushalten. Die gesamte Kapazität dieser Speicher beträgt etwa 3,7 MWh.

Auf diesem Blog geht es weniger um die Kosten, als vielmehr um die physikalischen Aspekte von Energiegewinnung und -verbrauch. Denn vor jeder Kostenrechnung kommt die Physik. Wie gesagt, hätte ich gerne mehr Informationen über die zeitlichen Energieflüsse auf der Insel gehabt, diese aber leider nicht bekommen. Die folgenden Überlegungen orientieren sich folglich an den Angaben aus dem Projektbericht sowie aus weiteren statistischen Daten aus frei zugänglichen Quellen.

Die gesamte auf der Insel bereitgestellte Energie stammt aus folgenden Quellen:

Solar PV      2,7 MW
Wind            5,7 MW
Biogas          0,5 MW

Das Jahr über produziert diese Trias nach meinen Berechnungen etwa 19 GWh (laut Projektbericht sind es 20 GWh).

Diese Zahl müssen wir nun vergleichen mit Stromverbrauch auf der Insel. Auf Pellworm leben etwa 1200 Einwohner in 560 Haushalten. Daraus lässt sich ein Jahresverbrauch von etwa 3700 MWh abschätzen (inklusive elektrischer Heizung bei ca. 23 % dieser Haushalte). Der Projektbericht spricht demgegenüber von einem Verbrauch von 7 GWh, also etwa das Doppelte. Die Differenz lässt sich darauf zurückführen, dass Pellworm ein beliebtes Touristenziel ist mit etwa 160 000 Übernachtungen jährlich. Auch Touristen wollen morgens gerne duschen und verbrauchen direkt oder indirekt die eine oder andere Kilowattstunde. Dazu kommt noch die Landwirtschaft auf der Insel, deren Strombedarf hier nicht quantifiziert werden soll. Alles in allem scheint also die Gesamtzahl von 7 GWh durchaus plausibel zu sein.

Wir halten fest, dass auf Pellworm ein Stromangebot von 20 GWh einem Bedarf von 7 GWh gegenüber steht. Es wird also knapp das Dreifache dessen produziert, was man braucht. Nicht schlecht. Nun ist es natürlich klar, dass der Strom aus regenerativen Quellen nicht konstant fließt, sonst könnten wir uns dieses Posting hier schenken. Um kurzzeitige Schankungen auszugleichen, hat man die oben erwähnten Speicherkapazitäten geschaffen.

Um eine Vorstellung davon zu erhalten, wie lange diese Speicher vorhalten, berechnen wir den durchschnittlichen Tagesverbrauch auf der Insel, der rund 19 MWh beträgt, im Winter wohl etwas mehr als im Sommer. Wir sehen also, dass die Speicher für rund 20 % des Tages reichen, d.h. etwa 4 Stunden. Mit anderen Worten: Bei einer Dunkelflaute von 4 Stunden wird es auf Pellworm knapp.
Dunkelflauten können aber noch deutlich länger sein. Dann muss die Insel vom Festland her versorgt werden.

Am Ende des Projektberichts findet sich eine Auflistung von insgesamt 11 Ergebnissen, die keine wirklich überraschenden Erkenntnisse, sondern vielmehr Trivialitäten beinhalten. Wesentlich aussagekräftiger ist jedoch eine Passage, die sich auf Seite 12 befindet. Dort heißt es:

Das Speichersystem wurde so dimensioniert, dass die verschiedenen Technologien für verschiedene Anwendungen sinnvoll getestet werden konnten - das Erreichen einer komplett energieautarken Insel war nicht das Ziel des Projekts und hätte eine etwa doppelt so große Dimensionierung erfordert, um auch die letzten 2,5 % der auf der Insel benötigten Energie wähtend wind- und sonnenarmen Zeiten  aus gespeicherter Energie zu decken. 

Diese Aussage ist bemerkenswert, und zwar in mehrfacher Hinsicht.

1. "Das Erreichen einer komplett energieautarken Insel war nicht das Ziel des Projekts". Das sahen manche Leute vor einigen Jahren noch ganz anders. Wo, wenn nicht hier, auf einer wind- und sonnenreichen Insel mit moderatem Energieverbrauch (es gibt keine industriellen Großverbraucher), könnte man dieses Ziel anvisieren? Es ist nachgerade so, als würde ein Bergsteiger zu einer Mount-Everest-Tour aufbrechen, 100 Meter vor dem Gipfel wieder umkehren und sagen, er wollte ohnehin nie ganz oben stehen.

2. Es fehlten "die letzten 2,5 % der auf der Insel benötigten Energie". Angesichts der Tatsache, dass auf Pellworm fast dreimal soviel Strom produziert wird wie benötigt, ist diese Aussage bestenfalls ein schlechter Witz. Was können wir aus diesem Statement lernen? Der gesamte Energiebedarf auf Pellworm beträgt, wie wir gesehen haben, 7 GWh. 2,5 % davon sind 175 MWh. Bei einem durchschnittlichen Tagesverbrauch von 19 MWh (im Winter etwas mehr) entsprechen die "letzten 2,5 %" also etwa 9 Tagen. Das bedeutet, dass die Insel für etwas mehr als eine Woche im Jahr auf die Versorgung vom Festland angewiesen ist, weil sie selbst nicht genug Strom erzeugen kann.  

3. "Das Speichersystem [...] hätte eine doppelt so große Dimensionierung erfordert...". Auch diese Aussage ist leicht irreführend. Man fragt sich, warum das nicht wenigstens versucht wurde. Bei Gesamtkosten von etwa 12 Millionen Euro wäre es auf die eine oder andere Million nicht mehr angekommen. Immerhin hätte man dann das Traumziel erreicht. Richtig ist vielmehr, dass auch ein doppelt so großes Speichervolumen das Problem nur gemildert, aber nicht behoben hätte. Entsprechend unserer obigen Abschätzung könnte in diesem Fall die Insel für acht Stunden (anstatt für vier) aus Speicherquellen versorgt werden. Aber wenn die Flaute länger dauert, was nicht auszuschließen ist, dann sitzen die Menschen wieder im Dunkeln.  

Am Beispiel Pellworm wird die Crux der Energiewende mehr als deutlich. Man kann Energie im Überfluss aus regenerativen Quellen erzeugen, aber wenn sich daraus keine konstante Versorgung herstellen lässt, ist alles umsonst. Da helfen auch die 220 auf der Insel installierten Smartmeter und sonstiges Brimborium nichts. Denn die Smartmeter produzieren keine einzige zusätzliche Kilowattstunde, vielmehr dienen sie einzig und allein der möglichst effizienten Verwaltung des Mangels. Und bei einer Dunkelflaute steht auch das smarteste Smartmeter plötzlich nackt da.

Vielsagend ist hingegen das Schweigen der Medien. Während sonst jeder neue Produktionsrekord an Sonnen- oder Windenergie triumphal hinausposaunt wird, herrscht plötzlich verräterische Stille im Blätterwald. Nur gelegentlich wird über die SmartRegion Pellworm berichtet. Ein Armutszeugnis für eine Medienlandschaft, die mehr auf ideologische Indoktrination als auf objektive Information setzt. Insofern nichts Neues.





2017/05/02

Windenergie im Ländervergleich

Bei allen Produktionsprozessen möchte man die Maschinen möglichst permanent laufen lassen, also 24 Stunden am Tag, das ganze Jahr über. Dann ist eine Maschine optimal ausgelastet. Das gilt natürlich ebenso bei der Umwandlung von Energie. Denn genau genommen, wird Energie nicht aus dem Nichts erzeugt, sondern lediglich von einer Form in eine andere, nützlichere, umgewandelt.

Beispiel: Kohle ist eine Form gespeicherter Energie und lässt sich leicht verbrennen. Die dabei entstehende Wärme wird in einem Kraftwerk schließlich in Elektrizität umgewandelt. Der erzeugte Strom ist wiederum vielfältig nutzbar.

Analog verhält es sich bei anderen Energieformen. Der Wind bläst übers Land, aber es hilft uns wenig, wenn wir es nicht schaffen, ihn für unsere Zwecke nutzbar zu machen. Also werden Windräder aufgestellt mit Generatoren, die den Wind in Strom umwandeln.

Aber mit dem Wind ist es so eine Sache. Er bläst nicht immer, und wenn, dann nicht immer gleich stark. Und gar nicht so selten sieht man Windräder still stehen.

Die Frage, die uns interessiert, lautet: wie häufig dreht sich das Rad? Oder anders, genauer gefragt: An wievielen Stunden eines Jahres lässt sich aus einer Windkraftanlage (WKA) Strom erzeugen? Die Antwort auf diese Frage liefert der sogenannte Nutzungsgrad (capacity factor) einer Anlage. Was man dazu benötigt, sind empirische Daten. Und die gibt es reichlich.

Die europäische Statistikbehörde Eurostat verfügt über umfangreiches Datenmaterial zum Thema Energiegewinnung.

Wie wird der Nutzungsgrad bestimmt? Jede WKA besitzt eine bestimmte Nennleistung, üblicherweise in MW angegeben. Nehmen wir ein hypothetisches Windrad mit einer Nennleistung von 1 MW. In jeder Stunde, die es optimal läuft, produziert es eine MWh. Ein Jahr hat 8760 Stunden. Also kann unser Windrad maximal 8760 MWh Strom liefern. Im Idealfall. Das entspräche dann einem Nutzungsgrad von 100%.

Die Wirklichkeit ist allerdings etwas ernüchternder, um es mal so zu sagen. Da der Wind ein sehr volatiles Element ist, liegt es nahe, größere Zeiträume zu betrachten. Dies ist in der unten stehenden Abbildung der Fall. Hier sieht man den Nutzungsgrad von WKA in ausgewählten Ländern über einen Zeitraum von 10 Jahren.


Klar ersichtlich ist, dass Deutschland (18,2%) im Vergleich zu den anderen Ländern, auch im Verhältnis zum EU-Durchschnitt (21,6%), zurückliegt. Und das obwohl das Land einer der Vorreiter auf dem Weg zu regenerativen Energien ist. Dänemark (26,4%) und das Vereinigte Königreich (UK, 26%) liegen über dem Durchschnitt, was wohl auch der Tatsache geschuldet ist, dass diese beiden einen relativ hohen Anteil an Offshore-Anlagen besitzen. Letztere haben eine deutlich höhere Ausbeute bei der Stromproduktion. Die Schwankungen gehen auf das unterschiedliche Windangebot in den einzelnen Jahren zurück. Es gibt eben windreiche und windarme Jahre.

Wem der Nutzungsgrad zu unanschaulich ist, kann auch auf folgende Kennzahl zurückgreifen: die Zahl der MWh pro MW installierter Leistung. Dann liegt Deutschland bei 1600 MWh jährlich, Dänemark und UK bei etwa 2300 MWh. Die Werte für Österreich und Schweden betragen 1900 bzw. 2100 MWh (gerundet). Wenn man das in Relation zu den theoretisch möglichen 8760 MWh stellt, erhält man den Nutzungsgrad.

Diese Werte liefern uns einen Refernzpunkt, um zu beurteilen, wieviel Energie sich mit einer bestimmten Methode erzeugen lässt. Die Unterschiede sind gewaltig, aber dazu mehr in weiteren Postings, wo diese Überlegungen auf andere Arten der Stromerzeugung ausgeweitet werden.




2017/04/23

Falsche Genauigkeit

Ist Kohle der Energieträger der Zukunft? Wie bitte? -  werden Sie sich jetzt fragen. Wo doch gerade die Kohle als Inbegriff der schmutzigen und klimaschädlichen Energie gilt. 

Also gut, lassen Sie es mich erklären. In der Schweiz gibt es alljährlich eine hochinteressante statistische Aufbereitung des Energieverbrauchs, die nach Verwendungszwecken aufgeschlüsselt ist. In letzter Zeit ist zu dieser Übersichtsanalyse auch eine spezifische Behandlung des Energieverbrauchs der privaten Haushalte gekommen.  In der jüngsten Ausgabe dieser Analyse findet sich auf S. 22 eine Tabelle der Verbrauchszahlen für die einzelnen Energieträger (Tabelle 3-1). Und dieser entnehmen wir, dass in den Jahren 2000 bis 2015 der Verbrauch von Kohle um nicht weniger als 208% (!) zugenommen hat. Und zwar von 0,1 auf 0,4 PJ (Petajoule). Nun werden Sie sagen, dass der Anstieg von 0,1 auf 0,4 deutlich mehr als 208% ausmacht. Stimmt - aber nur, wenn sich auf die erste Dezimale beschränkt und alle anderen Nachkommastellen einfach abschneidet.  Angenommen, die beiden Werte seien 0,13 und 0,39, dann ergibt sich eine Steigerung von 200%. Na also, geht doch.

Spannend, nicht wahr? Diese Beobachtung steckt also hinter meiner provokanten Eingangsfrage. Woher kommt das?- werden Sie sich fragen. Immerhin handelt es sich bei dieser Arbeit, für die die renommierte Prognos AG verantwortlich zeichnet, um eine seriöse Studie. Aber auch die genauesten Studien können gelegentlich mit Ungereimtheiten aufwarten. 

Sehen wir uns die Sache im Detail an. Der gesamte Energieverbrauch der Privathaushalte in der Schweiz lag 2015 bei 232,4 PJ (ich verwende dieselben Einheiten wie Prognos) . Verglichen damit fallen die 0,4 PJ natürlich überhaupt nicht ins Gewicht, machen also bloß 0,2% des Gesamtverbrauchs aus. Es handelt sich also um statistischen Dreck. Und im Dreck soll man bekanntlich nicht wühlen. 

Generell gilt, dass kleine (absolute) Größen große (relative) Ausschläge nach sich ziehen können. Und umgekehrt verändern sich große Einheiten im Allgemeinen nicht mehr so stark. Die Zuwachsraten regenerativer Energieformen waren in den letzten Jahren sehr beeindrucken. Das ist aber ihrer derzeit kleinen absoluten Position innerhalb des Energieportfolios geschuldet. In den nächsten Jahren werden diese Zuwächse deutlich kleiner werden. Das hängt nicht nur mit den steigenden Kosten für neue Windkraftanlagen etc. zusammen, sondern liegt einfach in der Natur der Sache.

    



2017/04/02

Grundsätzliches zur Energie

Warum essen wir? 

Die Antwort auf diese Frage hängt natürlich davon ab, wen man fragt: ein Westeuropäer würde wohl eher das Genusshafte in den Vordergrund stellen, während jemand am Rande des Verhungerns gewiss auf die Notwendigkeit des Überlebens hinweisen würde. Alles eine Frage der Perspektive? Auf den ersten Blick vielleicht. Auf den zweiten jedoch nicht.

Denn wer sich das Notwendige hinter dem Genusshaften nicht mehr vergegenwärtigen kann, beweist eigentlich nur ein gerüttelt Mass an Unwissenheit, vergleichbar einem Vertreter der spätrömischen Dekadenz. Und die ging bekanntlich auch einmal zu Ende.

Denn der Sinn des Essens, der Nahrungsaufnahme, ist in allererster Linie die Zufuhr von Energie. Energie, die unser Körper braucht, um seine wesentlichsten Aufgaben erfüllen zu können. Um überleben zu können. Wer nicht isst, wird irgendwann nicht mehr sein.

Der menschliche Körper verbraucht pro Tag etwa 2 kWh Energie, sofern man auf (große) physische Anstrengungen verzichtet. Diese Energie muss dem Körper wieder zugeführt werden. Und je mehr wir uns körperlich verausgaben, umso mehr Energie muss gleichsam nachgefüllt werden.
Wird der tägliche Energieverbrauch nicht ausreichend ersetzt, dann kommt es über einen längeren Zeitraum zu Gewichtsverlust. Üblicherweise pendelt sich dann wieder ein neues Gleichgewicht ein, wobei sich Energieverbrauch und – zufuhr die Waage halten. Man hat Gewicht verloren.
Wird dauerhaft zuwenig Energie zugeführt, kommt es unweigerlich zu medizinischen Problemen, wofür Hungersnöte anschauliche Beispiele liefern.

Der minimale Energieverbrauch von 2 kWh pro Tag stellt sozusagen die untere Grenze dar, die für unser (Über)leben essentiell ist. Wer darüber hinaus mehr leisten will (oder muss, und zwar physisch oder geistig), der hat auch einen höheren Energieumsatz, der leicht das Doppelte (oder mehr) der Untergrenze ausmachen kann. Entsprechend muss dann auch mehr gegessen werden.

Das alles klingt recht trivial und ist es auch. Umso erstaunlicher, dass sich die meisten Menschen beim Thema Energie nicht an diese Trivialität erinnern, sondern lieber in einem Wolkenkuckucksheim leben, in dem scheinbar alles möglich ist. Da klingt es dann so, als könnte der Energieverbrauch eines Westeuropäers dank Energiesparen und einiger innovativer Ideen quasi auf Null reduziert werden.

Energie ist die Essenz des Lebens, und die Art und Weise, wie wir dieses Leben gestalten wollen, definiert unausweichlich einen bestimmten damit verbundenen Energieverbrauch. Der lässt sich zwar innerhalb bestimmter Grenzen variieren, aber nicht unter ein festes Minimum drücken.

Sehen wir uns das an einem konkreten Beispiel an: Jemand, der bislang nur auf der Couch vorm Fernseher gesessen hat, beschliesst eines Tages, Marathonläufer zu werden. Mit anderen Worten: sein täglicher Energieverbrauch wird deutlich nach oben gehen. Das hat klarerweise Auswirkungen auf sein Essverhalten. Er muss mehr Energie zuführen. Mit Sicherheit wird er nicht sein bisheriges Ernährungsprogramm aufrecht erhalten können. Sein neuer, physisch anstrengender  Lebensstil, erfordert einen höheren Energieverbrauch. Will er zu seinen alten Essgewohnheiten zurückkehren, muss er seinen Energieverbrauch zurückfahren, also deutlich weniger Sport treiben.

Hier wird in Ansätzen deutlich, wie die Art unserer Aktivitäten den Energiehaushalt beeinflusst. Und dieses Beispiel lässt sich noch weiter ausbauen. Unser Marathonmann will nicht nur laufen, sondern auch noch duschen. Und zwar mit warmem Wasser. Nun, der Autor dieser Zeilen braucht für eine Dusche etwa 2kWh (selbst gemessen). Und das ist ein konservativer Wert. Ich kenne Leute, die kommen leicht auf mehr als das. Also folgern wir: allein die Tatsache, dass wir täglich duschen, verdoppelt bereits unseren minimalen täglichen Energieverbrauch. Man könnte natürlich beschliessen, nur noch jeden zweiten oder dritten Tag zu duschen. Oder gar nur einmal die Woche. Früher ging das ja auch. Das weiss ich aus eigener Erfahrung.

Und mit jeder weiteren Aktivität steigt unser Bedarf an Energie. Gibt es da auch eine Grenze nach oben? Ich meine ja, wenn gleich ich (noch) nicht in der Lage bin, einen Wert hierfür anzugeben. Der Grund für mein Ja ist folgender:  Wir können zwar den Tag über eine ganze Reihe von Tätigkeiten ausführen, aber es gibt eben natürliche Grenzen dafür. Wir können nicht 24 Stunden am Tag Marathon laufen, jedenfalls nicht auf Dauer. Und wenn ich den ganzen Tag unter der Dusche stehe, kann ich in dieser Zeit nichts anderes machen. Und irgendwann muss ich ja auch schlafen.

Ich betrachte hier den individuellen Energieverbrauch, und das ist meiner Meinung nach die entscheidende Kenngröße, auch bei der Betrachtung von Volkswirtschaften. Nehmen wir den gesamten Energiebedarf eines Landes, so ist es sinnvoll, diese Größe auf den Prokopfverbrauch herunterzubrechen. Denn die Bevölkerung eines Landes ist nicht statisch, sondern verändert sich ständig. Wenn in einem Land heute 10 Millionen Menschen leben und im Jahr darauf 11 Millionen, dann wird das Auswirkungen auf den Energieverbrauch haben. Denn die zusätzliche Million verbraucht ja auch Energie, die in die Gesamtbilanz einfliesst.


2017/03/18

Brüder im Geiste - Energy Matters

Kürzlich entdeckte ich eher zufällig den Blog Energy Matters von Euan Mearns und Roger Andrews. Dringende Leseempfehlung! Dort werden kenntnisreich und mit vielen Detailinfos (grüne) Energiemythen auf den Boden des Tatsächlichen geholt. Nicht dass es darum ginge, eine Fundamentalopposition zu regenerativen Energien zu begründen. Diese mögen in besonderen Fällen durchaus ihre (lokale) Daseinsberechtigung haben. Ob es allerdings möglich ist, die gesamte Energieproduktion eines Industrielandes wie etwa Deutschland auf ein grünes Fundament zu stellen, wage ich zu bezweifeln.

Bedenklich wird die Sache, wenn Fragen der Technologie und der Physik zu solchen der Ideologie mutieren. Und genau das ist beim Thema Energiegewinnung und -verbrauch der Fall. Man kann das ganz leicht in seinem Bekanntenkreis überprüfen: Wenn Ihnen Ihr Nachbar wieder einmal von seiner genialen Photovoltaikanlage vorschwärmt, dann fragen Sie ihn doch einfach, wieviel Energie er pro Jahr (und zwar in Kilowattstunden kWh) in seinem Haus verbraucht. In 99% der Fälle wird er darauf keine stichhaltige Antwort haben. Allenfalls wird er einen vielleicht vierstelligen Eurobetrag nennen, den er jährlich seinem Energieversorger überweist. Aber das interessiert mich als Physiker wenig. Denn der Preis pro kWh kann sich jederzeit ändern. Was zählt, ist die tatsächliche Anzahl der verbrauchten Kilowattstunden und diese wird ausschließlich von physikalischen Gegebenheiten bestimmt und ist somit die einzig aussagefähige Kennzahl.

Das Thema Energie ist für eine funktionierende Volkswirtschaft von eminenter Bedeutung und als solches einfach zu wichtig, um es einer Gruppe hartgesottener Ideologen zu überlassen. Und wie gesagt: es geht nicht um eine grundsätzliche Ablehnung grüner Energie, sondern darum, das Potential der regenerativen Energieträger auszuloten und damit ihre physikalischen Grenzen aufzuzeigen. Denn die Naturgesetze hören ja nicht auf gültig zu sein, nur weil wir uns das so wünschen. Und das ist weit von dem entfernt, was uns Wind- und Sonnenbarone versprechen. Dass in diesem Zusammenhang einige Illusionen dekonstruiert werden müssen, liegt in der Natur der Sache.

Wenn man Webseiten der grünen Energieerzeuger besucht, wird man im Allgemeinen mit gut klingenden Phrasen abgespeist, dahingehend, dass dieses und jenes Projekt hilft, soundso viele Tonnen CO2 einzusparen. Das ist ja alles lieb und nett. Ich hätte aber gerne harte Fakten: etwa wie viele Megawattstunden (MWh) das Projekt pro Jahr liefert. Das wäre nämlich eine aussagefähige Zahl im Zusammenhang mit der Leistung einer Anlage (üblicherweise in MW angegeben). Denn sie besagt, wieviele Stunden pro Jahr das Windrad mit voller Leistung dreht (Volllaststunden). Ganz ähnlich verhält es sich, wenn irgendwo ein paar Windräder aufgestellt werden, die angeblich 5000 Haushalte mit Strom versorgen. Tatsächlich? Auch dann, wenn der Wind nicht weht? Abgesehen davon, dass die durchschnittliche Stromerzeugung von Windkraftanlagen oft (allzu oft?) übertrieben optimistisch angegeben wird, kommt dazu noch das bekannte Problem, dass der Wind eben nicht immer so zuverlässig bläst, wie man das gerne möchte.

Mit diesen und anderen Dingen werde wir uns in den nächsten Blogposts beschäftigen.