Kategorie: Quantative Analyse

Klassifikationsbäume

von Marianne Diem, September 2017

Klassifikationsbaum Titanic

Klassifikationsbäume sind ein intuitiver und dennoch leistungsfähiger Algorithmus, um Datensätze auf Basis der Werte kontinuierlicher oder diskreter (kathegorischer) Werte in Klassen zu sortieren. Zusammen mit Diskriminanzanalyse und Logistischer Regression gehören Klassifikationsbäume zu den klassischen Werkzeugen des Kreditscorings. Weiterhin sind sie eine verbreitete Technik des Dataminings, insbesondere in Form von Random Forests, die den Technologien des Machine Learnings zugerechnet werden.

Viele (energie-)wirtschaftlich relevante Fragestellungen laufen auf Klassifikation von Daten hinaus. Beispiele sind:

  • Einordnung von Kunden in Bonitätsklassen
  • Klassifizierung von Emails: Spam / kein Spam
  • Auswahl geeigneter Kunden für eine Direktmailing-Aktion

Für eine solche Klassifikation stehen typischerweise sowohl kontinuierliche Daten wie Umsatz und Ergebniszahlen wie auch kategorische (diskrete) Daten wie Branchenkennzahlen, Postleitzahlen usw. zur Verfügung.

 

Eine klassische Methode Klassifizierungen auf Basis der Werte von kontinuierlichen und diskreten Variablen vorherzusagen, ist der Klassifikationsbaum. Eine klassische Anwendung ist die Erstanalyse von Daten im Rahmen des Dataminings sowie das Kreditscoring von Kunden und Kontrahenten.

Einfaches Beispiel

Für den Einstieg verwenden wir die für solche Demonstrationszwecke allseits beliebten Daten des Titanic-Untergangs (z.B. verfügbar in den Beispieldatensätzen von R). Vorhergesagt werden soll in diesem Fall das Überleben des Passagiers. Die Überlebenswahrscheinlichkeit wird auf Basis von vorliegenden Daten geschätzt. Diese sind:

  • Passagierklasse / Crew-Mitglied (Klasse 1-3, 4 = Crew)
  • Geschlecht (weibl ja/nein)
  • Alter (Kind ja/nein)
  • überlebt (ja / nein)

1. Erste Datensichtung

Eine erste Analyse liefert bereits eine Pivot-Tabelle. Schon eine oberflächliche Analyse zeigt, dass alle Daten Einfluss auf die Überlebenswahrscheinlichkeit haben. Hier die (höhere) Überlebenswahrscheinlichkeit von Kindern:

 

tot überlebt Überlebenswahrscheinlichkeit
Kind 52 57 0,52
Erwachsen 1.438 654 0,31

Noch frappierender ist der Unterschied der Überlebenswahrscheinlichkeit von Männern und Frauen an Bord:

 

tot überlebt Überlebenswahrscheinlichkeit
männlich 1.364 367 0,21
weiblich 126 344 0,73

Auch die Passagierklasse hat einen Einfluss:

 

tot überlebt Überlebenswahrscheinlichkeit
1. Klasse 122 203 0,62
2. Klasse 167 118 0,41
3. Klasse 528 178 0,25
Crew 673 212 0,24

 

In diesem Fall sind sowohl die unabhängigen Variablen Passagierklasse, Geschlecht und Alter als auch die zu prognostizierende abhängige Variable, die Überlebenswahrscheinlichkeit, diskrete Variablen. Sie nehmen nur Werte aus einer endlichen Liste an.

2. Klassifikationsbaum des Titanic-Untergangs

Sind ausreichend Daten vorhanden, so können Wahrscheinlichkeiten für alle Kombinationen der abhängigen Variablen ermittelt werden. Typischerweise nimmt jedoch die Anzahl verfügbarer Daten ab, je mehr unabhängige Variablen bestimmt werden, so dass irgendwann eine weitere Untergliederung nicht mehr sinnvoll ist. Für das betrachtete Beispiel sieht ein Klassifikationsbaum wie folgt aus:

Klassifikationsbaum

Da nur für einen Bruchteil der Passagiere Rettungsbote vorhanden waren, überlebten im Ergebnis nur ca. 1/3 der Passagiere. Die höchste Überlebenswahrscheinlichkeit hatten männliche Kinder der 1ten und 2ten Passagierklasse (100%), danach kommen Frauen der 1ten und 2ten Passagierklasse und der Crew! (93%), dann Frauen der 3ten Passagierklasse (46%). Männliche Kinder der 3ten Passagierklasse haben immerhin noch eine Überlebenswahrscheinlichkeit von 27%. Erwachsene Männer überlebten nur mit 20% Wahrscheinlichkeit. Der größte Teil der Passagiere (76%) gehört dieser letzten Gruppe an.

Algorithmus

Der Algorithmus (z.B. CART) ist einfach und schnell.

  • Der Baum teilt immer in 2 Äste
  • an jedem Knoten wird eine Eingangsvariable in zwei Gruppen geteilt, für kontinuierliche Variablen erfolgt dies entlang eines Schwellwerts
  • die Trennung erfolgt so, dass die Homogenität der Zielkategorien in den nachfolgenden 2 Knoten maximiert wird
  • es wird immer die Variable für den nächsten Split ausgewählt, die zu der größten Zunahme der Homogenität in den nachfolgenden Knoten führt.

Zur Messung der Inhomogenität der Knoten kommen je nach dem konkreten Verfahren verschiedene, nachfolgend beschriebene, sogenannte Metriken in Frage. Um die Abnahme der Inhomogenität zu messen, vergleicht man die Inhomogenität des Mutterknotens mit dem gewichteten Mittelwert der Inhomogenität der Töchterknoten.

1. Varianz

Ein naheliegendes Homogenitätsmaß ist die Varianz. Allerdings kann sie nur bei kontinuierlichen, numerischen Zielgrößen sinnvoll bestimmt werden. Da wir hier vorrangig die Aufteilung eines Datensatzes in Kategorien betrachten, ist die Varianz nicht geeignet.

2. Gini-Index

Der Gini-Index  geht auf den italienischen Statistiker Corrado Gini zurück, der sich insbesondere mit Ungleichheit der Einkommensverteilung beschäftigt hat. Diesen Index verwendet der CART (classification and regression tree) Algorithmus.

 

Der Index misst, wie groß die Wahrscheinlichkeit ist, ein zufällig gewähltes Element eines Knotens fehlerhaft zuzuordnen, wenn man es zufällig entsprechend der Verteilung der Kategorien im Knoten einer Kategorie zuordnet. Der Gini-Index ist Null, wenn alle Datensätze des Knotens in dieselbe Kategorie fallen. Er ist maximal, wenn alle Kategorien innerhalb des Knotens gleichverteilt sind.

 

Für jedes Element eines Knotens sei die Wahrscheinlichkeit, dass es der Kategorie i angehört pi. Dann ist die Wahrscheinlichkeit, es einer anderen, falschen Kategorie zuzuorden somit 1 – pi. Somit ergibt sich der Gini-Index für einen Knoten mit J Kategorien als:

G  = \sum_{i=1}^J p_i \cdot (1-p_i)

Die aggregierte Wahrscheinlichkeit über alle Möglichkeiten zwei Kategorien auszuwählen ist 1, ebenso wie die aggregierte Wahrscheinlichkeit eine beliebige Kategorie auszuwählen:

 \sum_{i= 1, j= 1}^J {p_i p_j } = 1 \quad \text{,} \sum_{i= 1} ^J p_i= 1

Hiermit ergibt sich

1 = \sum_{i= 1}^J p_i^2 + \sum_{i \neq j} ^J p_i p_j

und somit für den Gini-Index

G  = \sum_{i=1}^J p_i \cdot (1-p_i)  = \sum_{i=1}^J p_i - \sum_{i=1}^J p_i^2 = \sum_{i \neq j} ^J p_i p_j

Der Gini-Index kann auch generell als Güte-Maß verwendet werden, wie gut ein Klassifizierungsalgorithmus Klassen trennen kann.

2. Entropie

Ein weiteres verbreitetes Maß für Inhomogenität ist die Entropie. Für eine Zufallsvariable X mit J möglichen Werten, die jeweils mit einer Wahrscheinlichkeit pi auftreten, wird sie wie folgt definiert:

H =  - \sum_{i = 1}^J p_i \cdot \log_2(p_i)

Diese Messgröße kann man so motivieren: Hat die Zufallsvariable 2n gleichverteilte Werte, so benötigt man im Mittel

n = \log_2(2^n)

Ja-Nein-Fragen, um den Wert zu bestimmen. Mit jeder Frage kann man die Menge der Werte halbieren. Somit definiert man den Informationsgehalt der Wahrscheinlichkeit p mit

\log_2(1/p) = -\log_2(p)

Die Entropie ist dann der Erwartungswert des Informationsgehalts für eine Zufallsvariable X.

Anwendung im Kreditscoring

Für ein Anwendungsbeispiel im Bereich Kreditscoring verwenden wir einen Datensatz von 1000 deutschen Konsumentenkrediten, der von Professor Dr. Hans Hofmann, Institut für Statistik und Ökonometrie in Hamburg, einstmals zur Verfügung gestellt wurde, und seither vielfach für den Test von Scoringmodellen verwendet wurde. Er ist hier verfügbar.

1. Datensichtung

Die durchschnittliche Ausfallrate ist in dem Datensatz mit 30% extrem hoch. Dies erleichtert die Anwendung statistischer Verfahren aller Art. Vielfach ist die Quantifizierung von Kreditrisiken schon deshalb problematisch, weil für kleinere Kundenklassen keine Ausfälle vorliegen.

 

Die Datei enthält 1000 Datensätze mit vielen Attributen, von denen wir nur die folgenden berücksichtigen möchten:

  • Ausfall (0/1)
  • Duration (Laufzeit in Monaten)
  • Kreditsumme (in DM)
  • Girokontostand
    • A11: 0 DM
    • A12 < 200 DM
    • A13 > 200 DM
    • A14 kein Girokonto)
  • Kredithistorie
    • A30 bisher keine Kredite
    • A31 alle Kredite pünktlich zurückgezahlt
    • A32 bestehende Kredite bisher pünktlich zurückgezahlt
    • A33 Verzug in der Vergangenheit
    • A34 kritisches Konto / Kredite bei anderen Banken
  • in derzeitiger Position angestellt seit
    • A71 arbeitslos
    • A72 < 1 Jahr
    • A73 1-4 Jahre
    • A74 4-7 Jahre
    • A75 >= 7 Jahre
  • Position
    • A 171 arbeitslos / unqualifizierte Ausländer
    • A 172 unqualifizierte Inländer
    • A 173 qualifiziert
    • A174 Management / selbstständig / hochqualifiziert
  • Ersparnisse
    • A 61 < 100 DM
    • A 62 <= ..< 500 DM
    • A63 500<= < 1000 DM
    • A64 ..>= 1000 DM
    • A65 unbekannt / keine Ersparnisse

2. Modellanwendung

Klassifikationsbäume sind im Paket rpart (bzw. rpart.plot) implementiert. Mit dem folgenden Code erhält man den unten angezeigten Plot:

credit <- read.csv(„http://www.biz.uiowa.edu/faculty/jledolter/DataMining/germancredit.csv“)
cred2 <- credit[, c(„Default“,“duration“,“amount“,“checkingstatus1″, „history“, „employ“, „job“, „savings“)]

require(rpart)
require(rpart.plot)

mdl <- rpart(Default~.,data=cred2)
rpart.plot(mdl)

Kreditdefaults Baum

Erstaunlicherweise gehen die Informationen zum Job überhaupt nicht ein.

3. Gütetest

Eine entscheidende Frage ist natürlich, wie die Güte eines solchen Modells beurteilt werden kann.

 

Um Modellqualität zu testen, benötigt man von den Kalibrierungsdaten unabhängige Testdaten. Da die Richtigkeit von Wahrscheinlichkeiten unterteilt nach Kategorien beurteilt werden soll, darf das Testdatenset nicht zu klein sein. Weiterhin wollen wir die vorhandenen 1000 Datensätze optimal nutzen.

 

Wir gehen somit wie folgt vor:

  • der vorhandene Datensatz wird zufällig in drei Teil-Datensätze geteilt.
  • einer der Teil-Datensätze wird jeweils als Testdatensatz ausgewählt
  • mit den beiden anderen Datensätzen wird das Modell kalibriert
  • für jedes Element des Testdatensatzes wird nun mit dem vorher kalibrierten Modell eine Ausfallwahrscheinlichkeit ermittelt
  • Diese wird dem tatsächlichen Ergebnis 0 oder 1 gegenübergestellt

Jeder der drei Datensätze wird dabei einmal als Testdatensatz ausgewählt, so dass im Ergebnis für alle 1000 Zeilen der ursprünglichen Datei Istwerte und Prognosewerte auf Basis der drei aus den Trainingsdatensätzen kalibrierten Modellen vorliegen.

 

Da der Klassifikationsbaum als Ergebnis eine überschaubare Anzahl diskreter Wahrscheinlichkeitswerte liefert, kann das Ergebnis in einer Pivottabelle zusammengefasst werden, in der prognostizierten Wahrscheinlichkeiten Ist-Ausfälle und Ist-Rückzahlungen und somit auch eine Istwahrscheinlichkeit gegenübergestellt werden. Mit jedem Testdatensatz wird dabei die Güte des Modells getestet, dass aus dem zugehörigen Trainingsdatensatz erstellt wurde. Der gesamte Datensatz von Prognose- und Istdaten gibt einen Eindruck von der Brauchbarkeit des Verfahrens im Allgemeinen.

 

Die Kalibrierung erzeugt bei unterschiedlichen Trainingsdatensätzen unterschiedliche Bäume und Wahrscheinlichkeitsklassen. Die Gesamttabelle wird somit mit knapp 40 Zeilen schon relativ groß. Eine erste Einschätzung liefert die Korrelation zwischen Forecast-Wahrscheinlichkeit und Ist-Wahrscheinlichkeit. Sie beträgt hier 85 %. Dies zeigt, dass das Verfahren grundsätzlich anwendbar ist.

 

Um einen schnellen Eindruck von der Güte und den Schwächen des Verfahrens zu geben, stellen wir die Tabelle hier graphisch dar:

Klassifikationsbaum Gütetest

Auf der x-Achse befinden sich die Wahrscheinlichkeitsklassen, die die Bäume erzeugt haben. Ihnen wird auf der y-Achse grün ihre identische Forecastwahrscheinlichkeit und rot die in der entsprechenden Klasse gemessene Ist-Ausfallwahrscheinlichkeit zugewiesen. Die Größe der Punkte entspricht der Anzahl der Daten in der jeweiligen Klasse.

 

Auf jeder gestrichelten Linie befinden sich somit ein roter und ein zugehöriger grüner Punkt gleicher Größe.  Ihr Abstand auf der y-Achse repräsentiert den Fehler. Es zeigt sich, dass insbesondere kleine Klassen gänzlich fehlerhaft prognostiziert wurden. Der Baum ist somit bei der Erzeugung dieser Klassen bereits überoptimiert und sollte vorher abgebrochen werden.

Zufallswälder

Weiteren Aufschluss kann auch eine Analyse der Unterschiede zwischen den Bäumen geben, die auf Basis unterschiedlicher Trainingsdaten generiert wurden. Die generierten Bäume wie auch das genaue Testergebnis hängen von der Aufteilung der Daten in drei Teilmengen ab. Der Abhängigkeit von der jeweils gewählten Teilmenge wird bei den sogenannten Random Forests genauer nachgegangen.

1. Methode der Random Forests

Statt einen einzelnen Baum auf Basis eines Trainingsdatensatzes zu erzeugen, werden aus dem vorhandenen Datensatz eine Vielzahl zufälliger Teildatensätze erzeugt. Auch die Auswahl des Parameters, für den eine Teilung des Datensatzes vorgenommen wird, erfolgt zufällig:

  • aus dem zur Verfügung stehenden Datensatz der Größe n werden m Teildatensätze dergleichen Größe erzeugt, indem aus dem Originaldatensatz n mal mit Zurücklegen gezogen wird.
  • für jeden Teildatensatz wird ein Baum erzeugt
  • dabei werden an jedem Knoten aus k Parametern zufällig Wurzel(k) Parameter ausgewählt
  • nur von dieser Teilmenge der Parameter wird der für die nächste Teilung optimale Parameter nach obigem Algorithmus ausgewählt

Es entstehen auf diese Weise sehr viele leicht abweichende Bäume. Sie gleichen sich in Strukturen, die durch viele Daten belegt sind. Strukturen, die nur durch wenige Daten belegt sind, sehen in anderen Bäumen jeweils unterschiedlich aus.

 

Der Forecast aus einem solchen Random Forest Modell ergibt sich als der Mittelwert der Forecasts aller enthaltenen Bäume. Soll eine feste Zuordnung zu einer Klasse – keine Wahrscheinlichkeitszuweisung – Ergebnis des Forecasts sein, so wird als Forecast die Klasse bestimmt, der der Datensatz von den meisten Bäumen zugewiesen wird.

2. Gütetest

Wie vorher beschrieben, kann ein Gütetest mit einem vorher beiseite gesetzten Testdatensatz erfolgen. Dies reduziert jedoch die für die Kalibrierung verfügbaren Daten. Weiterhin werden bei jeder Baumerzeugung mittels Random Forests bereits von vornherein Daten beiseite gesetzt. Somit ist es naheliegend, jeden Baum des Zufallswaldes erst einmal gegen die Daten zu testen, die in seinen Kalibrierungsdaten jeweils nicht enthalten sind.

 

Als Testalgorithmus ergibt sich somit:

  • für jeden Datensatz wähle alle die Bäume, in deren Kalibrierungsdaten der Datensatz nicht enthalten ist
  • vergleiche die tatsächliche Kategorie dieses Datensatzes mit dem Durchschnitt (bzw. der Mehrheit) der Vorhersagen dieser Bäume

Als Gütemaß ist entweder der Prozentsatz der korrekt klassifizierten Daten oder die Summe der quadratischen Abweichungen zwischen Prognose und Ist sinnvoll.

Fazit

Einfache Klassifikationsbäume liefern ein intuitives, transparentes, sofort verständliches Ergebnis. Der Algorithmus ähnelt stark dem menschlichen Verhalten bei einer Entscheidungsfindung. Dies führt im Allgemeinen zu hoher Akzeptanz. Die im Nachhinein offenliegenden Entscheidungsregeln erlauben eine Einsicht in die zugrundeliegenden Daten. Klassifikationsbäume sind somit eine Datenanalyse- und Datamining-Technik.

 

Im Vergleich zu anderen klassischen Verfahren wie Regressionsverfahren und Diskriminanzanalyse können Klassifikationsbäume bis zu einem gewissen Punkt mit nichtlinearen Zusammenhängen und komplexen Interdependenzen zwischen den Ausgangsvariablen umgehen. Eine Stärke gegenüber anderen klassischen Verfahren ist weiterhin, dass sowohl kontinuierliche als auch diskrete Variablen als Ausgangsgrößen verwendet werden können. Allerdings können leicht komplexe und überangepasste Bäume entstehen, wenn der Algorithmus keinen einfachen Zusammenhang findet. Der Algorithmus garantiert zudem nicht, dass der gefundene Baum optimal ist.

 

In ihrer Weiterentwicklung als Random Forests gehören Klassifikationsbäume zusammen mit Neuronalen Netzen, Support Vector Machines, Selbstorganisierenden Karten und anderen Verfahren zu den Techniken des Machine Learnings.

 

Lastprognose- und Forecastverfahren

von Marianne Diem, April 2017
Lastprognose Titelbild

In der Energiewirtschaft werden fast alle entscheidenden Daten durch Zeitreihen beschrieben. Die Fortschreibung dieser Zeitreihen und die Qualität der Prognosen und Forecastverfahren bestimmt entscheidend das finanzielle Ergebnis.

Prognosen und Forecastverfahren werden routinemäßig für die kurzfristige und langfristige Prognose von Lastgängen benötigt. Weiterhin werden oftmals auch Spot-, Regel- und Ausgleichsenergiepreise mit ähnlichen Verfahren in die Zukunft geschrieben. Die folgende kleine Einführung in das Thema Zeitreihenanalyse und Forecasts beinhaltet:

Analyse und Visualisierung der historischen Daten

Der erste Schritt bei der Erstellung einer Prognose sollte stets in der Analyse und Visualisierung der historischen Daten bestehen. Die Visualisierung ermöglicht, Datenfehler und Ausreißer zu erkennen und Muster in den Daten zu finden.

1. Visualisierung von Zeitreihen

Für Zeitreihen ist die erste naheliegende Darstellung der Zeitreihenplot. Eine solche Visualisierung zeigt:

  • Trends
  • Ausreißer
  • Einflussfaktoren (temperaturabhängig oder nicht)
  • Saisonalität (Jahres- und Wochenstrukturen)

Hier z.B. eine Historie der Spotpreise über die Jahre 2015-2016:

EPEX-Zeitreihenplot

Die Spotpreise zeigen offensichtlich Ausreißer aber keinen deutlichen Trend und erstaunlicherweise keine Abhängigkeit von der Jahreszeit. Insgesamt bleibt es eine Ermessensfrage, inwieweit extreme Preise als Ausreißer oder als Teil der normalen Volatilität der Preise gewertet werden sollten. Es ist somit wichtig, der Ursache von extremen Ereignissen genauer nachzugehen, um zu entscheiden, ob diese bereinigt werden sollen und unter welchen Umständen solche Ereignisse in Zukunft zu erwarten sein könnten und somit in den Forecast integriert werden müssen.

 

Zeitreihen in der Energiewirtschaft haben häufig sogenannte Saisonalitäten, d.h. sie zeigen im Jahresverlauf wiederkehrende typische Strukturen. Die Darstellung der typischen Woche zeigt den typischen (d.h. durchschnittlichen) Montag, Dienstag, … , Samstag, Sonntag. Hier wieder für die EPEX-Spotpreise:

EPEX-Typische Woche

Man erkennt:

  • den im Durchschnitt deutlich anderen Preisverlauf am Wochenende (Samstag und Sonntag)
  • den tiefen Einstieg am Montag morgen
  • den leichten Preisabfall am Freitagnachmittag
  • sowie die sehr vergleichbare Last Dienstag-Donnerstag

Die typische Woche gibt einen ersten Einblick, ob eine Last- oder Preiszeitreihe überhaupt Tages- und Wochensaisonalität besitzt und wie stark diese ausgeprägt ist.

 

Üblich ist in der Energiewirtschaft weiterhin die Darstellung von Zeitreihen als geordnete Ganglinie. Hier werden alle Last- oder Preiswerte einfach der Größe nach geordnet angezeigt. Oftmals wird eine solche Ganglinie zusammen mit dem Zeitreihenplot in einer Graphik gezeigt. Hier die Ausgleichsenergiepreise im Jahr 2015 zusammen mit einer geordneten Ganglinie:

 

Rebap geordnete Ganglinie

Geordnete Ganglinien lassen sich leicht optisch beurteilen, datenreduziert darstellen (z.B. mit Fourier-Analyse) und sind somit auch für ein erstes Clustering von Lastgängen geeignet.

2. Beurteilung der Verteilung von historischen Daten

Die Verteilung von Last- und Preiswerten zeigt ein Häufigkeitsdiagramm. Hier die Verteilung der Spotpreise gegen eine Normalverteilung mit gleichem Mittelwert und gleicher Streuung:

Histogramm Spotpreise

Man sieht Abweichungen von der Normalverteilung um den Mittelwert herum, die Ausreißer lassen sich in dieser Darstellung kaum beurteilen.

 

Es ist somit hilfreich, die Häufigkeitsverteilung auch tabellarisch auszuwerten, z.B. über die Quantilwerte:

 

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
-130,090 16,439 21,948 24,700 27,090 29,610 32,024 35,060 39,452 45,960 104,960

 

3. Abhängigkeiten und Korrelationen

Neben der Verteilung der Daten interessiert natürlich die Abhängigkeit der Preise und Lasten von Wetterdaten, kalendarischen Informationen oder anderen Einflussfaktoren. Viele Lastzeitreihen zeigen eine deutliche Abhängigkeit zur Temperatur. Zur Darstellung von Abhängigkeiten dient das Punktediagramm.

 

Bei den Ausgleichsenergiepreisen erwartet man zunächst eine Abhängigkeit vom Regelzonensaldo:

Ausgleichsenergiepreise in Abhängigkeit vom Saldo

Tatsächlich hat der Regelzonensaldo nicht den erwünschten Erklärungsgehalt. Extreme positive und negative Ausgleichsenergiepreise zeigen sich vorrangig bei einem Regelzonensaldo nahe Null.

 

Interessant ist auch die Autokorrelation einer Zeitreihe; diese gibt an, in wieweit vergangene Werte die künftigen Werte bestimmen. Man kann die Autokorrelationskoeffizienten einer Zeitreihe plotten. Dabei wird jeweils die Korrelation zwischen dem Wert in der Position i und dem Wert in der Position i + n für alle „Lagsn geplottet. Für eine Zeitreihe aus unabhängig, standardnormalverteilt streuenden Werten sieht ein solcher Plot so aus:

Autokorrelationsfunktion

 

Die empirischen Korrelationen zwischen den Werten sind klein, aber nicht null. 95% der Balken sollten innerhalb  von

\pm 2 / \sqrt(T)

liegen (roter Korridor), dabei ist T die Länge der Zeitreihe.

 

Im Gegensatz zu diesem Referenzbeispiel sind die Ausgleichsenergiepreise deutlich autokorreliert:

Autokorrelation Ausgleichsenergiepreise

4. Ausreißer und Ausnahmewerte

Für die Beurteilung von Ausreißern ist es zweckmäßig, Datenpunkte zu beschriften. Zum Beispiel ist es für eine HPFC/DFC-Entwicklung relevant, welche Tage eigentlich als Feiertage gewertet werden sollten. Nicht alle Feiertage sind bundesweit und auch bundesweite Feiertage spielen unter Umständen in einem europaweit gekoppelten Strommarkt keine Rolle. Hier das Tages-Spotpreisniveau für die Donnerstage 2015-2016 im Zeitverlauf:

Spot Feiertage

Viele Feiertage befinden sich in guter Gesellschaft mit ihren Nachbarn. Andere – wie die Weiberfastnacht – scheinen wenn überhaupt nach oben auszureißen.

Einfache Prognoseverfahren

Das zunächst einmal naheliegendste Forecastverfahren ist immer die Fortschreibung von Vergangenheitswerten. Hierbei können je nach Bedarf Trends und Saisonalitäten berücksichtigt werden.

1. Einfache Fortschreibung

Eine einfache Fortschreibung kommt für eine kurzfristige Prognose in Frage, wenn die Daten keine Saisonalität besitzen. Die Prognose ist hier immer der jeweils letztgemessene Wert.

 

Die Graphik zeigt eine einfache Fortschreibung für den Minutenreservepreis des Produktes NEG_00_04 (siehe den Artikel zum Regelmarkt):

Einfache Fortschreibung

 

Natürlich kann auch ein geeigneter Mittelwert aus dem Zeitfenster der letzten x Werte in die Zukunft geschrieben werden. Da man im Regelmarkt den entstehenden Preis nie übertreffen darf, kann es hier auch sinnvoll sein, als Prognose ein geeignetes Quantil der letzten Preise zu verwenden. Das Zeitfenster über das gemittelt oder ein Quantil gebildet wird, kann aus der Historie ergebnisoptimal gewählt werden.

 

Eine weitere Möglichkeit ist, die gesamte Historie zu berücksichtigen, aber kürzliche Werte höher zu gewichten als weiter in der Vergangenheit liegende. Dies bezeichnet man als Exponentielle Glättung. Für einen Parameter α ergibt sich der Forecast von y zum Zeitpunkt t+1 dann als:

\hat{y}_{t+1} = \alpha \cdot y_t + \alpha \cdot (1-\alpha) \cdot y_{t-1} + \alpha \cdot (1-\alpha)^2 \cdot y_{t-2} + \cdots

Dabei liegt α zwischen 0 und 1, je höher α desto mehr Gewicht wird den jüngsten Werten gegeben.

2. Typtagsprognosen

Energiewirtschaftliche Daten haben typischerweise eine Tages-, Wochen- und Jahressaisonalität. Entsprechend sind sogenannte Typtagsprognosen in vielen Fällen der erste Ansatz. Weite Verbreitung haben sie bei der Tagesprognose von Lastgängen.

 

Die Typtagsprognose prognostiziert im einfachsten Fall den Lastverlauf eines Montags- entsprechend dem vergangenen Montag, den Lastverlauf am Dienstag entsprechend dem vergangenen Dienstag usw.

 

Oftmals kommen noch die namensgebenden Typtage zur Anwendung, d.h. die Tage werden aufgeteilt nach:

  • Montag
  • Dienstag – Donnerstag
  • Freitag
  • Samstag
  • Sonn- und Feiertag

Wieweit eine solche Aufteilung berechtigt ist, muss eine Analyse vergangener Daten zeigen. Die Prognose eines Tages entspricht jedenfalls dann der Last des nächsten vergangenen Tages mit gleichem Typtag:

Typtagsprognose

3. Fortschreibung von Trends

Hat die Zeitreihe einen eindeutigen Trend, so kann dieser Trend fortgeschrieben oder – wenn die Fortsetzung nicht wahrscheinlich ist – auch bereinigt werden. Bei Lastdaten ist es sinnvoll, Ursachen von Lasttrends und die weitere Aussicht mit dem Kunden abzuklären. Bei Preisdaten wird der Trend oftmals als zufällig, d.h. als Teil der Volatilität, interpretiert.

Temperaturregression der TU-München

Schwieriger wird die Lastprognose, wenn die Last offensichtlich temperaturabhängig ist. Beim Gasverbrauch ist dies der typische Fall. Deshalb wurden von der gleichnamigen Universität die TU-München Profile entwickelt, die nach GasNZV für die Abwicklung von SLP-Gaskunden empfohlen werden. Diese Profile modellieren die Temperaturabhängigkeit der Tageslast in Abhängigkeit von einer gemittelten Temperatur, die auch Vortageswerte enthält mittels einer sogenannten Sigmoidfunktion. Dieses Modell ist auch für die Prognose temperaturabhängiger RLM-Kunden Gas oder für die Modellierung der Temperaturabhängigkeit des Fernwärmeabsatzes interessant.

1. Bestimmung der anwendbaren Temperatur

Temperaturabhängigen Lasten muss vor Erstellung einer Prognose eine sinnvolle Wetterstation zugeordnet werden. Für die Modellparametrierung benötigt man eine ausreichende Historie (i.a. 2 Jahre) von Wetterdaten.

Die TU-München Profile verwenden als anwendbare Temperatur den folgenden Mittelwert:

 T = \frac {T_t + 0,5 T_{t-1} + 0,25 T_{t-2} + 0,125 T_{t-3}}{1+0,5+0,25 + 0,125}

hierbei ist Tt die Tagestemperaturprognose für den Liefertag, Tt-1 bisTt-3 jeweils die Tagestemperaturen der Vortage.

 

Die Berücksichtigung der Vortagestemperaturen stellt die Berücksichtigung der Wärmespeicherfähigkeit von Gebäuden sicher. Die Gewichtungsfaktoren vor den Einzeltemperaturen sind Modellparameter, die für eine Individualprognose prinzipiell auch individuell optimal auf Basis von Vergangenheitswerten kalibriert werden können.

2. Das Sigmoid-Modell

Im Rahmen der TU-München-Profile ergibt sich die Tageslast L multiplikativ als:

L = h(T) * l_0

wobei der Faktor l0 temperaturunabhängig ist und entweder konstant ist oder nur vom Wochentag abhängt.

 

Die Temperaturabhängigkeit der Last wird durch die Signoidfunktion h beschrieben, dabei ist:

h(\theta) = \frac{A} {1+ (\frac{B}{\theta - \theta_0})^C}+D

Die unterschiedlichen TU-München-Profile unterscheiden sich durch unterschiedliche Wahl der Parameter und A, B, C und D und Wochentagsfaktoren zur Bestimmung von l0, jeweils mit der Basistemperatur:

\theta_0 = 40^\circ\text{C}

Für die Fortschreibung von SLP-Kunden werden insgesamt 62 konkrete Profile, d.h. konkrete Setzungen der Parameter A, B, C und D und gegebenenfalls von Wochentagsfaktoren vorgegeben und Branchen zugeordnet, aus denen der Ausspeisenetzbetreiber für sein Netzgebiet wählen kann. Hiermit kann ein breites Spektrum von Temperaturabhängigkeit abgebildet werden. Hier die Werte der h-Funktion in Abhängigkeit von der Temperatur für einige Branchenprofile mit der Ausprägung 04 (siehe Leitfaden Abwicklung von Standardlastprofilen Gas):

 

Temperaturregression TU-München

Das durch die Signoidfunktion abgebildete grundsätzliche Prinzip ist, dass die Last auch für beliebig kalte Tage immer höchstens den maximal möglichen Wert erreichen kann, der durch die installierte Heizleistung vorgegeben ist:

\lim\limits_{\theta \to -\infty}{h(\theta)} = A + D

Die Basistemperatur wird mit 40 °C so hoch gesetzt, dass sie in unseren Breiten nicht erreicht werden kann. Die Sigmoidfunktion zeigt für warme Temperaturen den Grenzwert:

\lim\limits_{\theta \to \theta_0}{h(\theta)} = D

Die Parameter B und C kontrollieren die genaue Form der S-Kurve bei mittleren Temperaturen.

3. Parametrierung des Sigmoid-Modells

Sowohl der Ausspeisenetzbetreiber, der aus den pro Branche bis zu 5 Standardprofilen der TU-München das richtige auswählen muss, als auch der Energievertrieb, der einen temperaturabhängigen Großkunden oder den Fernwärmeabsatz mit freigewählten Methoden prognostizieren kann, stehen vor der Aufgabe die Parameter des Modells richtig zu wählen. Dies geschieht im Wesentlichen in beiden Fällen auf gleiche Weise.

 

Wie immer, wenn die Abhängigkeit der zu prognostizierenden Größe von anderen Parametern untersucht werden soll, visualisieren wir den Zusammenhang zunächst über ein Punktediagramm. Für einen temperaturabhängigen Lastgang könnte ein solches Punktediagramm wie folgt aussehen:

Temperaturabhängige Last

In diese Punktwolke muss nun eine Kurve eingepasst werden, die die Temperaturabhängigkeit der Last bestmöglich beschreibt. Hierzu verwenden wir die Methode der kleinsten Quadrate, d.h. die Parameter der Sigmoid-Funktion werden so gewählt, dass für die gemessenen Lastwerte L bei der Temperatur t die folgende Summe minimiert wird:

 \sum_t L(t) - h(t))^2

Ein Least-Square-Fit ist in statistischer Software (z.B. R) standardmäßig implementiert. Zweckmäßiger setzt man die Parameter eines optisch passenden TU-München Standardprofils als Startwerte (st), um Konvergenz und sinnvolle Rechenzeit zu erreichen. Mit den Werten (werte) der Punktwolke mit den Koordinaten Temperatur (temp) und Last (y) erhält man dann die genau optimalen Parameter in R über die Zeilen:

h ← function(a, b, c, d, t, t0){
(a/(1+ (b/(t-t0))^c)) + d
}
nls(y ~ h(a, b, c, d, temp, 40), start =st, data = werte)

Das Ergebnis sieht so aus:

Fit h-Funktion TU-München

Es ist sinnvoll den Rest y – konst * h(t) gegen die Temperatur zu plotten, dieser sollte keine Temperaturabhängigkeit mehr enthalten, andernfalls ist der Fit durch eine Sigmoidfunktion nicht adäquat.

 

Weiterhin sollte der Rest als Zeitreihe geplottet und auf weitere Muster und Strukturen geprüft werden.

Lineare Regression, Autoregression, ARIMA

Lineare Regression ist sicherlich eines der Arbeitspferde, wenn es um die Erstellung von Lastprognosen geht. Auch bei der Prognose von Preisen kommen lineare Regression und die verwandten autoregressiven Modelle oft zum Einsatz.

1. Lineare Regression

Bei einer linearen Regression wird eine abhängige Variable y über k unabhängige x-Variablen mit zugehörigen Konstanten α prognostiziert. Die zentrale Gleichung lautet dabei:

y_i  = \alpha_0 + \alpha_1\cdot  x_{1,i} + \cdots + \alpha_k \cdot x_{k,i} + e_i

dabei sind ei unkorrelierte Werte einer normalverteilten Zufallsvariable e mit Erwartungswert 0 und konstanter Varianz.

 

Um ein lineares Regressionsmodell zur Prognose von y aufzusetzen, müssen zunächst mögliche Kandidaten für die x-Variablen gefunden werden. Hierzu benötigt man Daten, die im Gegensatz zu y zum Prognosezeitpunkt bekannt sind und eine hohe Korrelation zu y besitzen.

 

Sind die x-Variablen gefunden, so bestimmt man die α-Konstanten wiederum durch die Methode der kleinsten Quadrate, minimiert wird:

\sum_i (y_i- \alpha_0 + \alpha_1\cdot  x_{1,i} + \cdots + \alpha_k \cdot x_{k,i})^2 = \sum_i e_i

Auch diese Kalibrierung bietet mathematische Software üblicherweise an, in R erhält man eine lineare Regression auf die Temperatur für die oben gezeigte temperaturabhängige Last mit:

fit ← lm(y ~ temp, data=werte)
summary(fit)

Das Ergebnis sieht so aus (nicht ganz so schön, wie die Sigmoid-Funktion der TU-München):

Lineare Regression

Nach der Kalibrierung sollten die Restterme ei gegen die Prognosevariablen x geplottet werden. Dieser Plot sollte keine Muster mehr erkennen lassen, sonst ist dies ein Hinweis auf nichtlineare Zusammenhänge zwischen y und den x-Variablen.

 

Eine Regression ist auch auf diskrete x-Variablen möglich, beispielsweise kann als unabhängige Variable ein Feiertagsindikator  verwendet werden, der den Wert 1 am Feiertag annimmt und 0 sonst.

 

Problematisch ist eine Regression auf x-Variablen, die untereinander stark korreliert sind. Die Korrelationsgleichung ist dann nicht eindeutig lösbar oder es ergeben sich unplausible Koeffizienten (negative Abhängigkeit, wo positive Abhängigkeit zu erwarten wäre).

2. AR- und ARIMA-Modelle

Eine kleine Abwandlung des vorher beschriebenen Modells ist die Prognose einer Variable y mit einer Regression auf Ihre historischen Werte:

y_i  = \alpha_0 + \alpha_1\cdot  y_{i-1} + \cdots + \alpha_k \cdot y_{i-k} + e_i

Weiterhin ist es oftmals sinnvoll, nicht eine Zeitreihe y zu prognostizieren, sondern stattdessen die Zeitreihe y‘ der Differenzen:

y'_i = y_i - y_{i-1}

Letztere hat oft bessere Eigenschaften und aus einer Prognose von y‘ lässt sich leicht eine von y erstellen. Die Differenzenbildung kann mehrfach erfolgen.

 

Eine besonders flexible Modellklasse bilden die sogenannten ARIMA-Modelle (autoregressive integrated moving average model). Sie modellieren den künftigen Wert von y‘ als Summe einer Regression auf vergangene Werte von y‘ und einem gewichteten Mittelwert der historischen Fehler e:

y'_i = c + \alpha_1 \cdot y'_{i-1} + \cdots + \alpha_p \cdot y'_{i-p} + \beta_1 \cdot e_{i-1} + \cdots + \beta_q \cdot e_{i-q} + e_i

Für die Kalibrierung eines solchen Modells müssen zunächst geeignete Werte für p und q und für die Anzahl der Differenzenbildungen d bestimmt werden. Danach können optimale Werte für die αs, βs und c durch die Methode der kleinsten Quadrate oder durch Maximum-Likelyhood bestimmt werden. Für die Bestimmung von p ist der oben gezeigte Autokorrelationsgraph hilfreich. Weiterhin wird in vielen Softwarepaketen eine automatische Kalibrierung von ARIMA-Modellen zur Verfügung gestellt.

 

Hier für die bereits oben gezeigten Regelenergiepreise eine Prognose des Folgewertes auf Basis der jeweils verfügbaren historischen Daten mit einem ARIMA-Modell:

Regelpreise ARIMA Forecast

 

Wie man sieht, stellt die Prognose von Regelpreisen durchaus eine Herausforderung dar. Die Prognoseabweichung bleibt im Maximum unter der Abweichung der einfachen Fortschreibung des letztgemessenen Wertes:

Regelpreise Einfache Fortschreibung

Ist die raffiniertere Prognose aber wirklich besser?

Messung der Prognosegüte

Sollen nur zwei Prognosemodelle für dieselbe Variable verglichen werden, so kann man die bereits zur Kalibrierung der Modelle verwendete quadratische Abweichung betrachten.

1. Kennzahlen zur Messung der Prognosegüte

Vergleicht man zwei Prognoseverfahren für y, so ist das Verfahren besser, für das die quadratische Abweichung von Prognose und Ist kleiner ist:

\sum_i (y_i - \hat{y}_i)^2

Für die gerade verglichenen Methoden zur Vorhersage der Regelpreise (ARIMA und einfache Fortschreibung) ergibt sich tatsächlich, dass das ARIMA-Modell geringfügig besser ist.

 

Als Kennzahl wird oft der mittlere quadratische Fehler (MSE, mean squared error) betrachtet:

\text{MSE} = \frac{\sum_i^n (y_i - \hat{y}_i)^2 }{n}

Die Wurzel hieraus ergibt RMSE, den Root Mean Squared Error.

 

Es kann auch einfach der Mittelwert der absoluten Abweichungen (MAE, Mean Absolute Error) betrachtet werden:

\text{MAE} = \frac{\sum_i^n \lvert y_i - \hat{y}_i \rvert}{n}

Für diese Kennzahl schlägt die einfache Fortschreibung das ARIMA-Modell.

 

Diese einfachen Kennzahlen hängen von der Einheiten und absoluten Größenordnung der zu prognostizierenden Variable ab und eignen sich somit nicht zur generellen Beurteilung von Prognosequalität. Als ein normiertes Fehlermaß schlagen Hyndman and Koehler vor, den Fehler eines Prognosemodells im Verhältnis zu dem Fehler einer einfachen Fortschreibung zu messen.

 

Die Prognosequalität von linearen Regressionsmodellen wird üblicherweise mit dem Bestimmtheitsmaß R2 oder dem adjustierten Bestimmtheitsmaß R̄gemessen.

2. Kalibrierungs- und Testdaten

Die Prognosequalität kann nur an Daten getestet werden, die nicht für die Kalibrierung des Modells verwendet wurden. Somit müssen bei Entwicklung eines Prognosemodells zunächst die verfügbaren Daten in Daten zur Kalibrierung und Testdaten aufgeteilt werden.

 

Für die Fortschreibung von Zeitreihen, insbesondere wenn die Daten eine Saisonalität beinhalten, bleibt meist nichts übrig als diese Aufteilung entlang der Zeitachse vorzunehmen. In die Prognose nachfolgender Zeiträume dürfen nur davorliegende Daten eingehen. Somit wird das Modell jeweils mit den Daten bis zum Zeitpunkt ti kalibriert und hiermit der Wert zum Zeitpunkt ti+1 vorhergesagt. Man erhält einen Prognosefehler für jedes i abgesehen von einem Zeitfenster am Anfang, dass als minimal angesehen wird, um eine Kalibrierung sinnvoll vornehmen zu können.

 

Soll ein Regressionsmodell oder eine Kalibrierung beispielsweise der Sigmoidfunktion getestet werden, so ist die zeitliche Abfolge der historischen Daten nicht relevant. Das Testset kann dann zufällig gewählt werden. Insbesondere ist das folgende Vorgehen möglich:

  • Wähle die Beobachtung i als Testmenge
  • Kalibriere das Modell aus allen Daten ohne die Beobachtung i
  • Werte den Prognosefehler i für die Beobachtung i aus
  • Ermittle den mittleren Fehler über alle möglichen i

3. Weitere Maßnahmen zur Beurteilung der Prognosequalität

Mathematische Kennzahlen zur Beurteilung der Prognosequalität haben oft Schwächen. Sie erkennen beispielsweise nicht, wenn der Zusammenhang zwischen der abhängigen, zu prognostizierenden Variable und den unabhängigen Variablen, die zur Prognose verwendet werden, nur in einem gewissen Zeitfenster gilt und danach zusammenbricht. Die bekannte Kennzahl R2 ist Null für eine lineare Regression, wenn der Zusammenhang zwischen den Variablen vorhanden aber nicht linear ist.

 

Somit ist es immer sinnvoll, für die Testdaten die Prognose gegen Ist zu plotten, um die Prognosequalität zu beurteilen. Ebenso sollte der Rest, d.h. die Abweichung des Forecasts vom Ist geplottet werden und mit Punkteplot auf noch vorhandene Abhängigkeiten von den unabhängigen Regressionsvariablen geprüft werden.

 

Idealerweise ist die Restzeitreihe White Noise, d.h. sie repräsentiert eine Zufallsvariable:

  • ohne Autokorrelation
  • mit Erwartungswert Null
  • mit konstanter Varianz

Ist der Erwartungswert der Restzeitreihe ungleich Null, so sollte der Erwartungswert der Prognose hinzugefügt werden. Ist die Restzeitreihe autokorreliert, so ist möglicherweise die Betrachtung einer Differenzzeitreihe (s.u) sinnvoll.

 

Verschiedene mathematische Transformationen sind hilfreich, wenn die Ursprungsdaten bzw. die Restzeitreihe autokorreliert sind oder eine nicht konstante Varianz zeigen. Hierzu zählen:

4. Wirtschaftliche Bewertung der Prognoseabweichung

Zu guter Letzt sollte bei der Beurteilung des Prognosefehlers auch immer die wirtschaftliche Relevanz in Betracht gezogen werden. Sie ist letztendlich die Messlatte dafür, ob sich eine Investion in die Verbesserung der Prognosequalität lohnt. Für die Tagesprognose ergeben sich die Kosten K aus dem Prognosefehler aus dem folgenden Skalarprodukt (Summenprodukt):

K = (P - I) \circ (\text{REBAP}- \text{EEX})

dabei ist:

P die Prognosezeitreihe
I die Istzeitreihe
EEX die Spotpreiszeitreihe der EEX
REBAP die Ausgleichsenergiepreiszeitreihe

Wird zuviel prognostiziert, so wird die Überschussmenge am Spotmarkt gekauft (Aufwand, negatives Vorzeichen) und am Ausgleichsenergiemarkt wieder verkauft (Erlöse, positives Vorzeichen). Wird zuwenig prognostiziert, ist es umgekehrt. Für Einspeisung gilt die entsprechende Gleichung mit negativem Vorzeichen.

 

Geht man davon aus, dass sowohl die Prognoseabweichung P – I im Mittelwert Null ist (dies sollte der Anspruch sein) als auch die Abweichung zwischen Spot- und Ausgleichsenergiepreisen REBAP – EEX (Arbitragefreiheit), so sind die erwarteten Kosten K:

K = \text{COV}(P - I,\text{REBAP}- \text{EEX})

Die Korrelation zwischen Prognoseabweichung und dieser Preisdifferenz ist für manche Marktteilnehmer (insbesondere bei der Prognose von Windeinspeisung) immer positiv, in diesem Fall entstehen aus der Prognoseabweichung systematisch Kosten und nicht nur Ergebnisrisiken.

Auch bei einer Prognose von Regelpreisen zählt letztendlich die Optimierung der Erlöse. Danach müssen die Prognoseparameter auch kalibriert werden.

Ausblick und weiterführende Links

Eine ausführliche Einführung in das Thema Forecasting bietet das Onlinebuch zum Thema Forecasting von Rob J. Hyndman und George Athanasopoulos, von dem dieser Artikel viel Inspiration erhalten hat. Von Hyndman wurde auch eine Vielzahl von Forecastverfahren und zugehörigen automatischen Kalibrierungen in R bereitgestellt. Als weitere für die Energiewirtschaft wichtige Tools und Verfahren findet man in dem Buch:

Ein sehr zentrales Thema ist in der Energiewirtschaft weiterhin die Zerlegung von Zeitreihen in Trend und Saisonalität. Oftmals – wie bei HPFC-Modellen – werden generelle Preisniveaus aus Terminpreisen entnommen, während die Tages- und Wochenstruktur aus historischen Daten extrahiert werden sollen. Auch hier bietet das erwähnte Onlinebuch eine kleine Einführung, die meist nicht ausreichen wird. Weiter führt der Artikel STL: A Seasonal-Trend Decomposition Procedure Based on Loess von Cleveland, Rae und Terpenning. Eine Adaption der dort entwickelten Ideen ist der HPFC-Artikel.

 

Gerade bei der Prognose temperaturabhängiger Lasten wie Gas und Fernwärme besteht typischerweise das Problem, dass die unabhängigen Variablen, mit deren Hilfe die Last prognostiziert werden soll, untereinander hoch korreliert sind (Temperatur, Vortagestemperatur, Vortagesmenge, Globalstrahlung …). Dies führt die klassische multilineare Regression schnell an die Grenzen. Sichtbar relevante zusätzliche Variablen werden als irrelevant aussortiert. Ein möglicher Ansatz sind hier dimensionsreduzierende Verfahren wie die Hauptkomponentenanalyse (PCA). Viele Artikel zur Anwendung solcher Verfahren findet man bei R-Bloggers.

 

Clusteranalyse: Lastprognose im Smart-Meter-Zeitalter

von Marianne Diem, Februar 2017

Clusteranalyse von Zeitreihen

Der Smart-Meter-Rollout wird in Kürze Ist-Lastzeitreihen für nahezu alle Kunden zur Verfügung stellen. Im gleichen Zuge steigen die Handlungsmöglichkeiten im Energievertrieb, die Prognosegüte zu verbessern und verbrauchsspezifische Preise und Tarife zu stellen. Clusteranalysen sind mathematische Verfahren zur Klasterung von Lastgängen eines Absatzportfolios. Dabei können sowohl ähnliche Verläufe innerhalb einer Zeitreihe (Typtage) wie auch Ähnlichkeiten zwischen Lastgängen (Kunden mit ähnlichem Verbrauchsmuster) gesucht werden.

Lastprognosen im Lichte von Smart Meter

Das Lastverhalten von Kunden- und Kundengruppen richtig zu prognostizieren und richtig zu bepreisen, ist bestimmend für die Wirtschaftlichkeit des Energievertriebs. Es ist somit eine der Kernaufgaben und notgedrungen auch der Kernkompetenzen der Energiewirtschaft.

 

Bislang wurde dem Energievertrieb diese Aufgabe im Massenkundengeschäft durch verbindliche Standardlastprofile stark erleichtert. Durch Smart Metering werden in Kürze Ist-Lastzeitreihen für nahezu alle Kunden zur Verfügung stehen. Auch eine Anpassung der Bilanzierungsregeln ist auf dem Weg. Hiermit bieten sich für Lastprognose und Bepreisung im Massengeschäft völlig neue Voraussetzungen.

 

Nichtsdestoweniger können die arbeitsintensiven Verfahrensweisen des Großkundengeschäfts nicht eins zu eins auf das Massengeschäft übertragen werden. Einzelprognosen und Einzelanalysen von Lastgängen sind im Massengeschäft nicht wirtschaftlich. Segmentierungen des Lastverhaltens in geeignete Kundenklaster werden erforderlich sein.

 

Die Gruppierung des Kundenportfolios nach typischem Lastverhalten in Verbindung mit geeignet erhobenen mit dem Lastverhalten korrespondierenden Kundeneigenschaften kann zudem einen entscheidenden Informationsgewinn für den Vertrieb darstellen und ist Basis für die Tarifentwicklung.

 

Der Vertrieb steht somit vor den Aufgaben:

  • Lastprofile seines Absatzportfolios nach Ähnlichkeit zu klastern und typischen Profilen zuzuordnen
  • vertrieblich ermittelbare Kriterien zu eruieren, aus denen die Klasterzugehörigkeit / das typische Lastverhalten abgeleitet werden kann

Der vorliegende Artikel beschäftigt sich mit dem ersten Teil der Aufgabe.

Methodisches Vorgehen bei einer Clusteranalyse

Die Clusteranalyse bietet die Möglichkeit, eine Zeitreihen in „Schubladen“ mit ähnlichem Verlauf zu sortieren, ohne dabei inhaltliche a priori-Annahmen zu treffen. Somit können mit einer Clusteranalyse:

  • Lastgänge eines Portfolios in Cluster sortiert werden, die jeweils Lastgänge ähnlicher Struktur enthalten
  • Tagesverläufe eines Lastgangs oder einer Preiszeitreihe in Klassen mit ähnlichem Verlauf sortiert werden (sogenannte Typtage)

Es gibt viele Verfahren zur Clusteranalyse. In diesem Artikel konzentrieren wir uns auf klassische sogenannte hierarchische Verfahren. Die Ähnlichkeitssuche mit einem solchen Verfahren erfordert im Allgemeinen mehrere Schritte:

  • Zunächst werden meist über eine geeignete Normierung und Bereinigung Effekte eliminiert, die im Rahmen der Clusteranalyse als nicht relevant erachtet werden, aber zu einer Klassifizierung von Lastgängen als unterschiedlich führen würden.
  • In einem zweiten Schritt wird auf den normierten Zeitreihen eine Distanzfunktion definiert, mit deren Hilfe bestimmt werden kann, welche Zeitreihen nahe beieinander liegen (also ähnlich sind) und welche nicht.
  • In einem iterativen Verfahren werden nun nahe beieinanderliegende Zeitreihen herausgefiltert und Cluster („Anhäufungen“) von Zeitreihen identifiziert

Einige Clusterverfahren ermöglichen eine freie Wahl der Distanzfunktion. Übliche solche Funktionen stellen wir in einem folgenden Kapitel kurz vor.

 

Die Anzahl der gewünschten Cluster kann vorab gesetzt oder durch Zielfunktionen ermittelt werden. Ziel ist dabei nach Möglichkeit systematisch unterschiedliche Zeitreihen zu separieren und „zufällige“ Abweichungen bei der Clusterung zu ignorieren. Das bedeutet, dass der Abbruch optimalerweise an einer Stelle erfolgt, wo eine weitere Zusammenführung von Clustern zu einem großen Anwachsen der Distanzen innerhalb des Clusters führt.

Bereinigung und Normierung der Zeitreihen

Um Zeitreihen sinnvoll vergleichen zu können, werden oftmals für die Untersuchung nicht relevante Unterschiede vorab bereinigt. Teilweise werden die Zeitreihen auch vorher geeignet vereinfacht, um eine bessere Rechenzeit und ein stabileres Ergebnis auf großen Datenmengen zu erreichen.

1. Fehlwerte und Ausreißer

Zunächst einmal ist es sinnvoll, Ausreißer und Fehldaten in historischen Zeitreihen mit Ersatzwertverfahren zu bereinigen, da sie zur Verfälschung der Ergebnisse führen können.

2. Normierung auf gleiche Gesamtarbeit

In der Energiewirtschaft ist es weiterhin oft sinnvoll, zu vergleichende Zeitreihen auf gleichen Jahresabsatz zu normieren. Das heißt, statt einer stündlichen Zeitreihen (zi)i betrachtet man die entsprechende normierte Zeitreihe (zNi)i mit

z^N_i  = \frac {z_i}{\sum_j {z_j}}

Diese Normierung auf Jahresabsatz 1 erfolgt wenn zweckmäßig zuletzt, nachdem alle anderen unerwünschten Effekte bereinigt wurden.

3. Trendbereinigung

Auch Trends in den Daten sollte man möglicherweise bereinigen. Hier zum Beispiel ein Windeinspeiselastgang mit deutlichen Zubaueffekten:

Windeinspeisung - Lastgang mit Trend
Offshore Windeinspeisung 2015 – DE-AT-LU – Daten ENTSO-E

Typischerweise wäre man eher an einem typischen Profil für eine konstante installierte Leistung interessiert. Eine erste Idee zur Bereinigung ist, die Zeitreihe durch den linearen Trend (rote Linie in obiger Graphik) zu teilen. Allerdings führt dies nicht zu einem befriedigenden Ergebnis:

Wind bereinigt um lin. Trend

Möchte man keine weiteren Daten hinzuziehen, so lässt sich die verfügbare Leistung zum jeweiligen Zeitpunkt gut als ein gleitendes Maximum (etwas geglättet) darstellen:

Windeinspeisung - gleitendes Maximum

Normierung der Zeitreihe mit diesem gleitenden Maximum ergibt ein befriedigendes Ergebnis:

Windeinspeisung-bereinigt um gleitendes Max

4. Zufällige „Störungen“ des Lastverhaltens

Klassische Methoden der Clusteranalyse liefern kein sinnvolles und stabiles Ergebnis, wenn die systematischen Strukturen, die man zu finden hofft, stark von zufälligen Effekten überlagert werden. Beispielhaft für dieses Problem zeigen wir weiter unten eine Clusteranalyse der Spotpreise.

 

Daher ist es zweckmäßig, bei der Analyse eines Kundenportfolios die zu untersuchenden Lastgänge nach Möglichkeit von vornherein auf ihre systematische Struktur zu reduzieren. Hierzu kann man für jeden Lastgang die folgenden reduzierten Datensätze betrachten:

  • die typische Woche aus durchschnittlichem Montags-, Dienstags-, …, Sonntags-Lastverlauf
  • ein für diesen Lastgang generiertes Quasi-Standardlastprofil

Für ein solches Quasi-Standardlastprofil werden Typtage (z.B. Mo, Di-Do, Fr, Sa, Sonn- und Feiertag) und Saisons definiert (z.B. Sommer, Winter, Übergangszeit). Für jede Kombination aus Typtag und Saison erhält man einen typischen Verlauf durch Mittlung der Verläufe aller Tage, die in diesen Typtag und diese Saison fallen.

 

5. Anforderungen an die Normierung

Die Normierung dient zweckmäßigerweise auch der Vereinfachung der Daten und erhöht somit die Performance der Clusteralgorithmen. Sie darf jedoch keine Effekte bereinigen, die in Wirklichkeit kostenbestimmend sind und somit gerade herausgefiltert werden sollen.

 

Vielfach werden in Clusteranalysen beispielsweise Abstandsmaße definiert, die Zeitreihen als gleich klassifizieren, die sich nur durch eine zeitliche Verschiebung unterscheiden. Dies ist für die Energiewirtschaft nicht zweckmäßig, da gerade die zeitliche Verteilung der Last (Maximallast nachts oder tagsüber, werktags oder am Wochenende) entscheidend und kostenbestimmend ist.

Definition von Distanzmaßen

Eine Zeitreihe der Länge n wird als ein Punkt im Rn interpretiert. Eine stündliche Zeitreihe über ein Jahr entspricht dann beispielsweise einem Punkt im R8760. Ein Distanzmaß für Zeitreihen einer vorgegebenen Länge n ist somit ein Distanzmaß (oder eine Distanzfunktion) des Rn. Hierfür gibt es mehrere naheliegende Möglichkeiten:

 

Ein erstes naheliegendes Distanzmaß ist die euklidische Metrik. Der Abstand zwischen zwei Zeitreihen p, q der Länge n (entspricht zwei Punkten im Rn) ist dann:

\text{dist}(p,q) = \sqrt{\sum_{i =1}^{n} (p_i-q_i)^2}

 

Eine Verallgemeinerung hiervon sind die sogenannten Minkowski-Metriken oder Minkowski-Distanzen, die für jedes feste k ≥ 1 wie folgt definiert sind:

\text{dist}(p,q) = \sqrt[k]{\sum_{i =1}^{n} |p_i-q_i|^k}

 

Ein sinnvolles Maß für die Ähnlichkeit von Zeitreihen ist offensichtlich auch ihre Korrelation. Der empirische Korrelationskoeffizient für zwei Zeitreihen p, q ergibt sich als

\rho(p,q) = \frac{\sum_{i=1}^{n} {(p_i - \bar{p})\cdot (q_i -\bar{q})}}{\sqrt{\sum_{i=1}^{n}{(p_i - \bar{p})^2}\cdot \sum_{i=1}^{n}{(q_i - \bar{q})^2}}} \; ,

wobei

\bar{p} = \frac{1}{n} \cdot \sum_{i=1}^{n} {p_i} und

\bar{q} = \frac{1}{n} \cdot \sum_{i=1}^{n} {q_i} ist.

Die Idee ist nun, dass hoch korrelierte Zeitreihen einen kleinen Abstand haben und niedrig korrelierte einen großen. Explizit soll der Abstand von zwei Zeitreihen mit Korrelation 1 gleich 0 sein und der Abstand von zwei Zeitreihen mit Korrelation -1 soll maximal unter allen möglichen Abständen sein. Ein mögliches Distanzmaß mit diesen Anforderungen ist:

\text{dist}(p,q) = \arccos( \rho(p,q) )

Hiermit ist dann also

\rho(p,q) = \cos(\text{dist}(p,q)).

Die Distanz kann hier als Winkel interpretiert werden, nämlich als Winkel zwischen den durch die Punkte

(p_1 - \bar{p}, p_2 - \bar{p}, \ldots, p_n - \bar{p})

und

(q_1 - \bar{q}, q_2 - \bar{q}, \ldots, q_n - \bar{q})

definierten Ursprungsvektoren des Rn.

 

Eine einfachere Variante für ein Distanzmaß mit den genannten Anforderungen ist:

\text{dist}(p,q) = 1 - \rho(p,q)

 

Wir verwenden im Folgenden als Distanzmaß die euklidische Metrik.

Hierarchische Clusterbildung mit Fusionierungsalgorithmen

Es gibt verschiedene Verfahren, aus betrachteten (Teil-)Zeitreihen Cluster zu bilden. Verbreitet sind außer den hier diskutierten hierarchischen Verfahren z.B. auch der k-Means-Algorithmus. Ein Vorteil der hierarchischen Verfahren ist, dass sie eine freie Wahl der Metrik ermöglichen. Es wird unterschieden zwischen:

  • divisiven Clusterverfahren, in denen zunächst alle Objekte als zu einem Cluster gehörig betrachtet und dann schrittweise die bereits gebildeten Cluster in immer kleinere Cluster aufgeteilt werden, bis jeder Cluster nur noch aus einem Objekt besteht
  • agglomerativen Clusterverfahren, in denen zunächst jedes Objekt einen Cluster bildet und dann schrittweise die bereits gebildeten Cluster zu immer größeren zusammengefasst werden, bis alle Objekte zu einem Cluster gehören

Agglomerative hierarchische Clusterverfahren haben die größte Verbreitung. Sie starten mit dem Zustand, dass jedes Objekt (jeder Lastgang) sein eigenes Cluster ist. Schrittweise werden immer die Cluster mit der kleinsten Distanz zueinander zusammengeführt, bis alle Cluster vereinigt sind. Die optimale Anzahl von Clustern wird innerhalb des Prozesses dann über ein sinnvolles Abbruchskriterium bestimmt. Hierzu dient unter anderem das sogenannte Dendrogram.

 

Für die Messung der Distanz zwischen Clustern  und das daraus abgeleitete Fusionskriterium gibt es unterschiedliche Möglichkeiten. Einige davon stellen wir im Folgenden vor.

1. Single Linkage

Beim Single-Linkage ist die Distanz zwischen zwei Clustern A und B der Abstand zwischen den beiden Objekten a, b der beiden Cluster, die den geringsten Abstand voneinander haben:

dist(A,B) = \min_{a\in A, b\in B} {dist(a,b)}

Clusteranalyse - Single Linkage

2. Complete Linkage

Beim Complete-Linkage ist die Distanz zwischen zwei Clustern A und B der Abstand zwischen den beiden Objekten a, b der beiden Cluster, die den größten Abstand voneinander haben:

dist(A,B) = \max_{a\in A, b\in B} {dist(a,b)}

Clusteranalyse - Complete Linkage

3. Average Linkage

Beim Average Linkage wird der Mittelwert der Distanzen aller Verbindungen von A nach B gebildet:

dist(A,B) = \frac{1}{ \#A \cdot \#B} \cdot \sum_{a\in A, b\in B} {dist(a,b)}

Dabei sind

\#A,\#B die Anzahl der Objekte in A und B

4. Centroid – Method

Bei der Centroid- Method wird der Abstand der Zentren der beiden Gruppen gemessen:

dist(A,B) = dist(\bar {a},\bar{b})

Dabei sind

\bar{a}, \bar{b} die Schwerpunkte der beiden Cluster bezogen auf die Metrik.

Clusteranalyse - Centroid Method

Auswertung mit dem Dendrogramm

Der Algorithmus der Clusterbildung startet nun mit dem Zustand, dass jedes Objekt / jede Zeitreihe ihr eigenes Cluster bildet:

Clusteranalyse - hierarchisches Verfahren

 

Dann werden in jedem Schritt die beiden Cluster fusioniert, die nach dem gewählten Fusionierungsalgorithmus (siehe oben) die geringste Distanz voneinander haben. Dies kann man solange fortsetzen, bis alle Objekte in einem Cluster sind. Die sukzessive Clusterfusion und die immer größeren Distanzen zwischen fusionierten Clustern lassen sich in einem Dendrogramm darstellen:

 

Clusteranalyse Dendrogramm

Auf der y-Achse ist die Distanz der zusammengeführten Cluster abgebildet. Auf der x-Achse sind die Ausgangsobjekte. Die Joche, die unterschiedliche Cluster verbinden, befinden sich jeweils auf der Höhe der Cluster-Distanz. Man sieht, dass die Cluster zunächst sehr nahe beieinander liegen. Am Ende werden zwei weit voneinander entfernte Cluster verbunden. Eine gute Abbruchstelle liegt an einer Stelle, mit langen senkrechten Achsen. Hier vergrößert sich der Abstand massiv, bevor eine weitere Fusion von Clustern möglich wird.

 

Wie ein Blick auf die ursprüngliche Punktegraphik nahelegt, lässt sich die Punktwolke gut durch zwei Cluster beschreiben.

Wie erfolgt nun die Anwendung auf Kundenportfolien?

Die Durchführung einer solchen Clusteranalyse auf einer geeignet normierten Datenbasis von Lastgängen ist sehr einfach. Die gängigen Verfahren:

  • agglomerative und divisive hierarchische Verfahren
  • k-Means
  • Density-Methoden
  • usw.

sind in den üblichen Statistik-Softwarepaketen (Matlab, R …) mit vielen Varianten und auch unterschiedlichen Metriken implementiert.

 

Betrachtet man z.B. den historischen Verlauf der Spotpreise über die Jahre 2015-2016 als Tabelle mit Tagen als Zeilen und Stunden als Spalten, so erhält man eine Clusterung der Tagesverläufe mit einem agglomerativen, hierarchischen Verfahren bei R über die zwei Zeilen:

library(cluster)
p1 ← agnes(spotpreise, metric = „euclidean“, stand = FALSE, method = „average“)

 

Einen Dendrogramm-Plot erhält man über die weitere Zeile:

plot(p1)

 

Hier ist er:

Clusteranalyse Spotpreise

Mit wenigen Zeilen lassen sich die in jedem Cluster enthaltenen Datensätze auswerten. Allerdings erhält man dabei – wie bereits in obigem Abschnitt zu stochastischen Störungen erwähnt  – nicht unbedingt ein brauchbares Ergebnis. Dies zeigt sich schon bei der Anzahl der Elemente pro Cluster

groups.2 = cutree(p1,2) ## erste 2 Cluster
table(groups.2) ## Anzahl Elemente anzeigen

Antwort:
groups.2
1    2
717    14

 

Für 20 Gruppen sieht die Gruppenverteilung wie folgt aus:

groups.20
1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19  20
22  2  6  446  104  2  7  33  86  2  2  1  2  1  5  4  1  3  1  1

 

Ein agglomeratives Verfahren findet bei solchen Daten auf jeder Stufe Ausreißer, die in eigene Klassen aussortiert werden und sortiert den Rest im Wesentlichen in Rest. Bei einem divisiven Verfahren sieht das Dendrogramm auf ersten Blick besser aus, es entstehen jedoch trotzdem keine sinnvollen Klassen.

Fazit und Ausblick

Wie bereits oben erwähnt, sind Zeitreihen mit hohem stochastischen Anteil für eine Analyse mit klassischen Clusterverfahren nicht geeignet. Somit sind bei den beschriebenen klassischen Verfahren die vorgelagerten Schritten zur Normierung und Vereinfachung von entscheidender Bedeutung. Auch Überlegungen zur Wahl des Clusterverfahrens und die Wahl der Metrik sind wichtig, um ein aussagekräftiges Ergebnis zu erhalten.

 

Ein gegenüber stochastischen Störungen robusteres Verfahren sind die sogenannten selbstorganisierenden Karten. Sie beruhen auf ähnlichen geometrischen Ideen, sind aber ein iterativer und selbstlernender Algorithmus der dem Machine-Learning zuzurechnen ist. Selbstorganisierende Karten verhalten sich gegenüber Störungen und Datenfehlern relativ robust. Auch dieser Algorithmus ist in mathematischer Software verfügbar und möglicherweise ebenfalls einmal einen Artikel wert.

 

Um tatsächlich Kunden Clustern zuzuordnen und Produkte Cluster-abhängig zu gestalten, sind weiterhin Kundeninformationen erforderlich, die möglichst von vornherein zum Zeitpunkt des Vertragsabschlusses oder bereits für die Kundenansprache eine Clusterzuordnung ermöglichen. Aus einer stichprobenbasierte Erhebung von Kundendaten z.B. über Umfragen in Kombination mit einer Clusteranalyse des Lastverhaltens kann ermittelt werden, welche Kundeneigenschaften tatsächlich das Lastverhalten prägen.

 

 

 

Marktintegration der Windenergie

von Marianne Diem, Februar 2017

 

Windenergie Einspeisung Titel

Die Windenergie steht auch in unseren Breitengraden in relevantem Maße zur Verfügung und ist unter den Erneuerbaren Energien vergleichsweise wirtschaftlich. Kein Wunder also, dass beim Ausbau der Erneuerbaren stark auf Windenergie gesetzt wird. Ist der Ausbau der Windenergie aber bereits marktintegiert? Oder sind es nur die Redundanzen und Spielräume der konventionellen Erzeugung, die Windeinspeisung bis zu einer gewissen bald erreichten Größenordnung ermöglichen?

Die folgende Auswertung zeigt Profile der Wind- und Solareinspeisung im Verhältnis zur jeweils relevanten Verbrauchslast. In Folge gehen wir der Frage nach, aus welchen Quellen die verbleibende Restlast nach Abzug der vorrangigen Einspeisung Erneuerbarer Energien gedeckt wird und ob sie auch künftig noch so gedeckt werden kann. Auch die Wirksamkeit der bisher getroffenen Maßnahmen zur Integration der Erneuerbaren Energien kann abgeschätzt werden. Alle im folgenden präsentierten historischen Daten kommen von der Transparenzplattform der Entso-E. Die Graphiken zeigen exemplarisch immer den Mai 2016.

Windenergie-Einspeisung in der Regelzone 50 Hertz

In Norddeutschland weht mehr Wind als in Süddeutschland. Verfügbare Flächen findet man leichter in dünner besiedelten Gebieten. Somit stehen die meisten Windräder in der Regelzone 50 Hertz. Hier werden somit die Auswirkungen der Windeinspeisung zuerst sichtbar. Die Windeinspeisung übersteigt in dieser Regelzone bereits regelmäßig die Gesamtlast. Hier Gesamtlast und Windeinspeisung in der Regelzone 50 Hertz im Mai 2016:

 

 

Last Windeinspeisung 50Hertz

Die Überspeisung erfolgt im Mai wegen der sehr tiefen Last in der Nacht von Pfingstmontag auf Pfingstdienstag. Möglicherweise sind die Lastwerte an dieser Stelle nicht plausibel. Viertelstunden, in denen die Windeinspeisung höher ist als die Last treten in der Regelzone 50 Hertz jedoch regelmäßig auf. Insgesamt überschritt dort in 2016 die Windeinspeisung in über 1000 Viertelstunden die Last.

 

Man sieht ebenfalls, dass die Windeinspeisung in mehreren Viertelstunden fast auf Null heruntergeht und dort zuweilen auch für ein paar Stunden bleibt.

 

Die Restlast, die durch Stromtransport, Speicher und andere Erzeugung zu decken ist, sah im hier durchgehend betrachteten Mai 2016 wie folgt aus:

Restlast 50 Hertz

 

Erschwerend ist zu berücksichtigen, dass diese Restlast nur mit hohen Unsicherheiten  prognostiziert werden kann. Am 17.05.2016 stieg die Restlast nach Abzug der Windeinspeisung in den 4 Stunden zwischen 5:15 Uhr und 9:15 Uhr von -303 MW (oder nahe Null) auf 7065 MW an. Da der Zeitpunkt der Windpeaks niemals auf die Stunde genau vorhersagbar ist, besteht für den konventionellen Kraftwerkspark bis zum letzten Moment die Unsicherheit, ob keine oder volle Leistung gefordert ist.

 

Natürlich hofft man, dass sich solche Schwankungen bundesweit ausgleichen.

Windenergie-Einspeisung in Deutschland

Deutschlandweit ist im Verhältnis zur Last weniger Windleistung installiert als in der Regelzone 50 Hertz. Somit nimmt sich die Windeinspeisung gegenüber der deutschen Gesamtlast noch verhältnismäßig harmlos aus:

Last Windeinspeisung DE

 

Der schöne Verlauf der Last zeigt zunächst, dass die deutliche Reaktion der Preise auf Wind- und Solareinspeisung inklusive negativer Preise bisher nicht zu einer Flexibilisierung der Last geführt haben. Diese zeigt nach wie vor eine deutliche Wochenstruktur und herabgesetzte Last an den Feiertagen:

  • 1. Mai
  • 5. Mai (Christi Himmelfahrt)
  • 8. Mai (Muttertag)
  • 16. Mai (Pfingstmontag) und
  • 26. Mai (Fronleichnam)

Weiterhin sieht man auf den zweiten Blick, dass sich die Windeinspeisung deutschlandweit kaum mittelt. Die Windeinspeisung in 50 Hertz hat im Wesentlichen die gleiche Struktur wie die gesamtdeutsche.

Fehlende Glättungseffekte bei Windeinspeisung

Wind ist ein großflächiges Phänomen.  Der Wind weht durch ganz Europa. Auch die über mehrere Länder Europas aggregierte Windeinspeisung zeigt kein günstiges Profil. Hier die Windeinspeisung in 50 Hertz, Deutschland und aggregiert über Deutschland, Österreich, Benelux, Frankreich und Polen:

Windeinspeisung Europa

 

Wie man sieht, zeigen sich auch im Gesamtprofil tiefe Klüfte und extreme Lastgradienten. Die Einspeisespitzen skalieren sich hoch. Die Profilverbesserung bei der Aggregation hält sich in Grenzen. Von einem weiteren Ausbau der Windenergie in Deutschland ist eine Verbesserung des Einspeiseprofils kaum zu erwarten. Wind ist ein sehr großflächiges Phänomen. Nur weit entfernte Standorte bieten Durchmischungseffekte. So ist die Windeinspeisung in 50Hertz und in Polen sehr hoch korreliert, während Polen und Frankreich fast unkorreliert sind.

 

Doch wenn der Wind nicht weht – so hört man oft – dann scheint bestimmt die Sonne und ansonsten gibt es ja Pumpspeicher.

Einspeisung der Erneuerbaren und Speicher

Die Solareinspeisung fällt zwar mit den Zeitpunkten der maximalen Last zusammen, das extrem spitze Profil ist jedoch perspektivisch nicht unproblematisch. Hier Wind- (grau) und Solareinspeisung (gelb) in Deutschland zusammen mit der Last (blau) in Deutschland:

Solar Windeinspeisung DE

 

Da die Solareinspeisung durch deterministische Ereignisse wie Sonnenaufgang und -untergang bestimmt ist, ist durch Ausbau der Solareinspeisung keine Diversifizierung zu erwarten. Ein weiterer Ausbau führt zu hochskalierten Spitzen. Die zu deckende Restlast 2016 sieht nach Abzug der vorrangigen Wind- und Solareinspeisung wie folgt aus (blau):

 

Differenzlast Pumpspeicher DE

Die rote Linie unten zeigt dabei den Einsatz der deutschen Pumpspeicher. Ihre maximale Einspeiseleistung im Mai 2016 betrug 5395 MW. Auch die verfügbare Arbeit bleibt offenbar hinter den Erwartungen zurück. Es muss sich somit noch einiges tun, wenn die Probleme der Energiewende in Deutschland durch solche Speicher gelöst werden sollen.

 

Deshalb hofft man hier auf die höheren Speicherkapazitäten der Gebirgsländer Österreich und Norwegen.

Lastdeckung in der Bidding-Zone DE-AT-LU

Da das skandinavische Stromnetz derzeit nicht einmal mit Deutschland synchronisiert ist, schauen wir uns die Bidding-Zone Deutschland-Österreich-Luxemburg an. Die Lastdeckung durch Wind (grau), Solar (gelb) und Pumpspeicher (rot) stellt sich hier so dar:

Solar Windeinspeisung DE-AT-LU

 

Der Erzeugungsbeitrag der Pumpspeicher erhöht in der Graphik die Solarspitzen, der Lastbeitrag die Lastkurve. Die Abnahme der Pumpspeicher ist nicht in der blauen Lastkurve enthalten. Es mag verwundern, dass die Stromabnahme der Pumpspeicher oftmals gerade mittags zur Zeit der Spitzenlast erfolgt. Dies dient der Ausregelung der Solarenergieeinspeisung. Insgesamt sieht man auch hier, dass der Beitrag der Pumpspeicher (nur) der Feinregelung dient.

 

Wo kommt somit die Flexibilität her, die zur Deckung der Restlast nach Abzug von Wind- und Solareinspeisung erforderlich ist?

 

Zunächst einmal stellt man fest, dass ein großer Teil der verbleibenden Erzeugung dazu nichts beiträgt. Biomasse, Flusswasser und Kernenergie liefern im Wesentlichen Base. Die Abweichungen von der Baselinie sind offenbar mehr durch Ausfälle als durch die Struktur der Restlast getrieben:

 

Baseeinspeisung DE-AT-LU

Dies zeigt, dass die zaghaften Versuche über das Marktprämienmodell einen Anreiz zu einer marktgerechteren Einspeisung der Erneuerbaren – insbesondere der Biomassekraftwerke – zu schaffen, ohne Wirkung geblieben sind. Die Biomasse-Einspeisung im Mai 2016 ist unkorreliert zur Restlast.

 

Als Quelle von Flexibilität verbleiben (in der folgenden Graphik von unten nach oben):

  • Braunkohlekraftwerke
  • Steinkohlekraftwerke
  • Gaskraftwerke
  • Other: ein bei ENTSO-E nicht näher spezifizierter Rest

Erstaunlicherweise ist der Flexibilitätsbeitrag der Kohle keineswegs unerheblich:

 

 

Deckung Restlast DE-AT-LU

Man sieht jedoch, dass auf die Lasttiefpunkte am Muttertag, am Pfingstwochenende und an Fronleichnam nicht ausreichend reagiert werden kann, so dass es zu Lastüberschreitungen kommt. Die Differenz zwischen Last und Energieerzeugung insgesamt sieht im Mai 2016 so aus:

Strom Import Export DE-AT-LU

 

Diese Restposition wurde von dem Kraftwerkspark in Deutschland, Österreich und Luxemburg nicht bereitgestellt und wird durch Import/Export aus/in andere europäische Länder wie Schweiz, Frankreich und Polen gedeckt.

 

Man sieht, dass insbesondere an den Feiertagen größere Mengen aus der Bidding-Zone ins weitere Ausland abgeflossen sind, am 8.05. begleitet von negativen Preisen von unter -100 €/MWh. Weiterhin ist bei der Kaufposition (positiv) durchgehend die typische Doppelspitze der Restlast zur Tagesmitte erkennbar, die aus der Ausfräsung der Lastspitze durch Solarenergie entsteht.

Fazit

Insgesamt zeigt der kleine Rückblick auf das Jahr 2016, dass man den Voraussetzungen einer rein erneuerbaren Erzeugung bisher nicht wirklich näher gekommen ist:

  • weiterhin ist die Last vollkommen preisinsensitiv.
  • trotz der Anpassungen des EEG im Rahmen des Marktprämienmodells erfolgt die Einspeisung der Erneuerbaren inklusive der Biomassekraftwerke weiterhin preis- und lastunabhängig
  • perspektivisch nicht mehr erwünschte Kohlekraftwerke leisten einen entscheidenden Beitrag zu Netzstabilität und Versorgungssicherheit.

Zusammenfassend basieren die Stabilität der Energienetze und die Versorgungssicherheit nach wie vor auf der Fähigkeit des konventionellen Kraftwerksparks aus Kohle, Gas und Wasser, jede entstehende Restlast und jede unprognostizierbare Schwankung dieser Restlast auszugleichen. Dabei wird zur Deckung des deutschen Flexibilitätsbedarfs auf Flexibilitäten des gesamten europäischen Erzeugungsparks zurückgegriffen. Diese Inanspruchnahme der Nachbarländer setzt implizit voraus, dass unsere Nachbarländer nicht im selben Maße wie wir auf Wind und Sonne setzen.

 

 

 

Welche Erlöse bietet der Regelenergiemarkt?

von Marianne Diem, Januar 2017
Analyse Regelpreise

Wie funktioniert der Markt für Regelleistung, über den der Übertragungsnetzbetreiber Flexibilitäten zur Netzstabilisierung beschafft? Wie haben sich die Preisstrukturen dort entwickelt und mit welchen Erlösen kann man dort realistischerweise rechnen?

Populäre Visionen von virtuellen Kraftwerken, Smart Grids und Elektromobilität sehen auch die kleinsten dezentralen Erzeugungsanlagen bis hin zum Privatkunden und der Batterie des Elektroautos in der Rolle, das Übertragungsnetz zu stabilisieren.

IT-technische Steuerungssysteme sollen dabei Sorge tragen, dass minimale Flexibilitäten intelligent zusammengeführt werden, so dass das Netz stabil bleibt, ohne dass die angeschlossenen Verbraucher Komforteinbußen erleiden müssen. Auch die angebotsabhängige, bedarfsunabhängige Bereitstellung von Strom aus erneuerbaren Energien und die Besitzstände der Betreiber bleiben dann – so das Wunschszenario – unangetastet.

 

Ein oberflächlicher Blick auf Niveau und Entwicklung der Regelenergiepreise, die die Höhe möglicher Erlöse aus der Bereitstellung von Flexibilität bestimmen, kann jedoch bei konkreten Businesscases schnell für Ernüchterung sorgen.

Systemstabilität

Aufgabe der deutschen Übertragungsnetzbetreiber (ÜNB) ist es, das Übertragungsnetz stabil zu halten. Hierzu muss die Frequenz des Wechselstroms in einem engen Korridor um den Sollwert 50 Hz gehalten werden.

Hertzfrequenz Swiss Grid
Frequenz Swiss Grid (Daten Swiss Grid)

Weicht die Frequenz zu stark vom Sollwert ab, nehmen Kraftwerksturbinen und viele Industrieanlagen Schaden. Sie gehen somit bei Erreichen eines kritischen Wertes automatisch vom Netz. Das Netz wird schwarz.

Der Markt für Regelleistung

Damit dies nicht passiert, muss von den Übertragungsnetzbetreibern das Leistungsgleichgewicht zwischen Stromerzeugung und ‑abnahme in ihrer Regelzone in jedem Moment aufrecht erhalten werden.

 

Zu diesem Zweck beschaffen die ÜNB über eine gemeinsame Ausschreibungsplattform sogenannte Regelleistung.

 

Es wird sowohl positive Regelleistung (auf Anforderung zusätzliche Einspeiseleistung bereitstellen) und negative Regelleistung (auf Anforderung zusätzliche Last bereitstellen) benötigt.

 

Marktdesign physischer Ausgleich ÜNB

 

Regelleistung gibt es in verschiedenen Qualitäten:

  • Minutenreserveleistung
  • Sekundärregelleistung und
  • Primärreserveleistung

Die Qualitäten unterscheiden sich darin, wie schnell die geforderte Leistung nach Aufruf aktiviert werden kann. Primärreserve wird sofort automatisch aktiviert, Minutenreserve erst binnen 15 Minuten.

kraftwerksvermarktung-regelleistungAuch der Aufrufprozess unterscheidet sich:

  • Primärreserve wird automatisch bei Sollwertabweichung aktiviert
  • Sekundärreserve wird automatisch durch den ÜNB abgerufen
  • Minutenreserve wird manuell durch den ÜNB aufgerufen

Dabei löst jeweils die langsamer aktivierbare Reserve die schneller aktivierbare Reserve ab, damit letztere wieder für neue Störfälle zur Verfügung steht:

 

Reserveaktivierung_Regelleistung

Präqualifizierung

Für die Teilnahme an der Regelenergieausschreibung und die Bereitstellung von Regelleistung ist eine Präqualifizierung erforderlich.

 

Im Rahmen der Präqualifizierung wird der Nachweis erbracht, dass bei Aufruf tatsächlich die erforderliche Leistungsänderung zuverlässig bereitgestellt werden kann. Weiterhin ist auch die zuverlässige Datenübertragung im Rahmen des Aufrufs und die Gewährleistung der IT-Sicherheit hierbei Gegenstand der Prüfung. Anforderungen an die Präqualifikation und viele andere Informationen finden sich auf der Regelleistung.net – Seite der Übertragungsnetzbetreiber. Für die Präqualifizierung und die Ausschreibung sind außer der oben genannten Primär-, Sekundär- und Minutenreserve auch die Reservekontrakte

  • Sofort abschaltbare Lasten (SOL) und
  • Schnell abschaltbare Lasten (SNL)

zugelassen. Jeweils 1.000 MW Regelleistung werden monatlich durch den ÜNB in diesen Kontrakten beschafft.

Wesentlicher Inhalt der Präqualifikation ist der technische Nachweis, dass ein vorgegebenes Profil abgefahren werden kann. Hierfür wird ein Musterprofil vorgegeben.

 

Minutenreserve muss binnen 15 Minuten verfügbar sein. Hierzu wird das folgende Musterprofil nachgewiesen.

Minutenreserve Musterprofil

Bei Sekundärreserve muss die volle Leistungsänderung binnen 5 Minuten verfügbar sein,

Sekundärreserve Musterprofil

bei Primärreserve sogar binnen einer halben Minute.

Primaerreserve Musterprofil

 

Über diese drei Reserveformen hinaus können die deutschen ÜNB in Ausnahmesituationen auf weitere Maßnahmen zurückgreifen. Hierzu gehört auch die Aktivierung stillstehender Kraftwerke (Kaltreserve), der Einsatz abschaltbarer Lasten oder Börsengeschäfte.

 

Minutenreserve, Sekundärreserve, Primärreserve und abschaltbare Lasten werden separat ausgeschrieben und erzielen unterschiedliche Preise. Naturgemäß ist Primärreserve im Mittel teurer als Minutenreserve. Davon abgesehen erzielt jeder Anbieter tendenziell einen anderen Preis und die erzielten Preise können weit streuen.

Bietverfahren und Preisstrukturen

Das Ausschreibungsverfahren für Regelleistung ist Pay-as-Bid, d.h. jeder Anbieter erhält bei Zuschlag den von ihm angebotenen Preis.

 

Die Gebote für Primärreserveleistung (PRL) enthalten nur einen Leistungspreis, Gebote für Sekundärreserveleistung (SRL) und Minutenreserveleistung (MRL) einen Arbeitspreis und einen Leistungspreis. Der Leistungspreis entschädigt den Anbieter dafür, dass er die angebotene Leistungsänderung bereithält und somit beispielsweise nicht die volle Kapazität seines Kraftwerks an den Energiemärkten vermarktet. Die Arbeitspreiskomponente entschädigt den Anbieter bei Aufruf für die Kosten der Produktion bzw. für das Abfahren des Kraftwerks oder die Lastbereitstellung. Arbeitspreise für den Abruf negativer Regelleistung können sowohl vom Netzbetreiber an den Anbieter wie auch umgekehrt gezahlt werden. Dies bedeutet, dass auf Abruf abgenommenen Strom teilweise durch den Abnehmer noch geringfügig vergütet wird, teilweise muss der Abnehmer bereits für die Abnahme entschädigt werden.

 

Zusammengefasst sehen die Ausschreibungsmodalitäten wie folgt aus:

 

PRL SRL MRL
Ausschreibungsfrequenz wöchentlich wöchentlich täglich
Ausschreibungszeitpunkt dienstags in der Vorwoche mittwochs in der Vorwoche Mo-Fr am Vortag
Lieferrichtung symmetrischer Kontrakt (positive und negative Reserve) separate Ausschreibung positiver und negativer Reserve
Lieferzeitraum Wochenkontrakt zwei Wochenkontrakte: HT(=Peak) und NT(= Offpeak) sechs 4-Stundenblöcke (z.B. POS_00_04: Lieferung positiver Reserve von 0-4 Uhr)
Mindestgröße 1 MW 5 MW 5 MW (Abgabe von Blockgeboten bis 25 MW möglich)
Angebotsgranularität 1 MW 1 MW 1 MW

Die Zuschlagserteilung für die benötigte Bereitstellung von Regelleistung erfolgt durch die ÜNB zunächst nach dem Leistungspreis. Die Anbieter, die den Zuschlag erhalten haben, werden bei tatsächlichem Regelleistungsbedarf in der Reihenfolge des angebotenen Arbeitspreises aufgerufen.

 

Die Mindestgrößen wie auch die geforderte sichere Bereitstellung abgerufener Leistung führen dazu, dass kleinere Marktteilnehmer gewöhnlich indirekt über sogenannte Regelenergiepools am Minuten- und Sekundärreservemarkt teilnehmen. Dies sind Aggregatoren, die Flexibilitäten vieler kleiner Anbieter zu einem virtuellen Kraftwerk bündeln, das dann am Regelenergiemarkt teilnimmt. Dies erfordert eine zuverlässige IT-Infrastruktur für den koordinierten Abruf, die ebenfalls Gegenstand der Präqualifizierung ist. Große Regelenergiepools sind Kritische Infrastrukturen im Sinne des IT-Sicherheitsgesetzes.

 

Historische Angebotsdaten, Zuschlagserteilung und abgerufene Arbeit können auf der Plattform Regelleistung.net im Detail abgerufen werden. Somit lassen sich auch statistische Aussagen zu erzielbaren Erlösen treffen, was wir im Folgenden tun möchten.

 

Wie bereits erläutert, setzen sich die Erlöse am Minuten- und am Sekundärmarkt aus Leistungspreiserlösen und Arbeitspreiserlösen zusammen, während am Primärmarkt nur die zur Verfügung gestellte Leistung vergütet wird. Im Folgenden gehen wir anhand der Daten auf Regelleistung.net für das Jahr 2016 auf die folgenden Erlösquellen ein:

Leistungspreiserlöse MRL

Wie in der obigen Tabelle dargestellt, erfolgt die Ausschreibung für die Minutenreserve für Blöcke à 4 Stunden getrennt nach positiver und negativer Reserveleistung. Die folgenden Graphiken zeigen für jeden Tag des Jahres 2016 die Leistungspreise, die bezuschlagte Anbieter im Mittel erzielt haben (blau), und welche maximalen Leistungspreise am jeweiligen Tag erzielt wurden (rot), wiederum getrennt nach negativer und positiver Reserveleistung.

Leistungspreise MRL NEGATIV

 

Im Mittel wurde von den Anbietern negativer Minutenreserve somit ein Leistungspreis von 2,99 €/MW erzielt, wobei dies je nach Kontrakt und Tag stark unterschiedlich ausfällt. Die maximal erzielten Preise schwanken mit in der Spitze bis zu 109 €/MW deutlich mehr als die mittleren Preise, bleiben aber im Jahresdurchschnitt für negative Minutenreserve ebenfalls bei relativ moderaten 9,85 €/MW.

 

Leistungspreise MRL positiv

Bei Leistungspreisen für positive Minutenreserve ist eine noch extremere Schwankung sichtbar. In der Spitze wurde am 14. Juni ein Wert von 989 €/MW erreicht (in der Graphik abgeschnitten). Der mittlere erzielte Leistungspreis pro Tag lag im Durchschnitt bei 4,05 €/MW, der maximale Leistungspreis pro Tag im Durchschnitt bei 16,31 €/MW.

 

Relevant ist  insbesondere der maximal bezuschlagte Preis für jeden individuellen Kontrakt. Er stellt den Kontraktpreis dar, der für einen einzelnen Anbieter theoretisch in der jeweiligen Ausschreibung erzielbar gewesen wäre, wenn sich alle anderen Anbieter unverändert verhalten hätten.

 

In der folgenden Tabelle werden für alle Kontraktarten die Jahresmittel für den maximalen und mittleren täglichen bezugschlagten Leistungspreis angegeben:

 

Kontrakt mittlerer
Tagespreis
maximaler
Tagespreis
NEG_00_04 4,76 7,71
NEG_04_08 4,57 7,39
NEG_08_12 1,95 3,24
NEG_12_16 3,34 5,54
NEG_16_20 1,86 3,14
NEG_20_24 1,70 2,92
POS_00_04 1,30 2,18
POS_04_08 4,01 8,58
POS_08_12 5,84 9,69
POS_12_16 2,80 4,61
POS_16_20 6,44 10,13
POS_20_24 3,90 6,30

 

Anhand des täglich maximal bezuschlagten Leistungspreises (rot) je Kontrakt kann ermittelt werden, welche Zuschlagsquote für einen gegebenen Angebotspreis (blau) zu erwarten gewesen wäre:

Leistungspreis-Erlöse NEG_00_04

 

Zum Beispiel hätte ein Anbieter auf den Kontrakt NEG_00_04 mit einem Gebot in Höhe des mittleren erzielten Tagespreises in Höhe von 4,75 €/MW an 146 Tagen einen Zuschlag erhalten und hiermit 693,5 €/MW im betrachteten Jahr aus der Bereitstellung negativer Regelleistung gemäß dem Kontrakt NEG_00_04 erlöst. Mit einem Preis von 12 €/MWh war die Zuschlagswahrscheinlichkeit zwar mit 63 Tagen deutlich geringer, die Erlöse hätten jedoch mit 762 €/MW etwas höher gelegen.

 

Wie die Graphik nahelegt, führt eine kurzfristige Anpassung des Gebotspreises zu noch höheren Erlösen. Ein Gebot in Höhe von 2/3 des Vortagesmaximums hätte beispielsweise zu Erlösen von gut 1000 €/MW geführt. Der nächste Schritt wäre somit, kurzfristige Prognoseverfahren (Filter) auf das Problem anzuwenden.

 

Derselbe Anbieter kann weiterhin auch auf die anderen 5 Kontrakte (Zeitfenster) für negative Reserve bieten und möglicherweise gleichzeitig positive Reserve anbieten. Trotzdem sind die möglichen Erlöse aus Leistungspreisen für Minutenreserve eher begrenzt.

Arbeitspreis-Erlöse MRL

Eine weitere Erlösquelle können Arbeitspreise darstellen. Viele Anbieter setzen den Arbeitspreis auf Null, andere sind vorrangig an Erlösen aus dem Leistungspreis interessiert und setzen prohibitive Arbeitspreise. Letzteres führt zu einem starken Anstieg der Angebotskurve für Regelenergiearbeit am hinteren Ende mit Preisen, die sehr selten abgerufen werden. Nur bei sehr hohem Bedarf an Regelenergiearbeit werden solche Angebote mit hohen Arbeitspreisen in Anspruch genommen. Durch die Pay-as-Bid-Regelung werden sie nur für die letzten MW bezahlt. Die Durchschnittskosten für die Regelenergiearbeit bleiben trotzdem moderat.

 

Hier die Angebotskurve für NEG_00_04 am 01.01.2016:

Angebotskurve Regelenergiearbeit

Man sieht, dass an diesem Tag keine negativen Preise eingestellt wurden.

 

Möchte man wissen, zu welchen Preisen tatsächlich Arbeit aufgerufen wurde, so muss die ebenfalls bei Regelleistung.net verfügbare abgerufene Leistung (Nachfrage) gegen die zum jeweiligen Zeitpunkt geltende Angebotskurve gelegt werden. So lässt sich pro Viertelstunde ein mittlerer aufgerufener Arbeitspreis und ein Grenzpreis ermitteln. Für negative abgerufene Regelleistung (grau) sehen die maximal (rot) und durchschnittlich (blau) erzielten Arbeitspreise wie folgt aus:

 

abgerufene negative Arbeit MRL

 

Negative Minutenreserve wird nur gelegentlich abgerufen. Wenn ein Abruf erfolgt, ist der durchschnittliche Arbeitspreis in der Regel positiv. Nur an einem einzigen Tag im November war der Arbeitspreis leicht negativ (grüner Kreis). Nur an diesem Tag hat der Netzbetreiber also Geld für den abgenommenen Strom erlöst. Die Kosten pro abgerufene MW sind im Mittel 17,25 €/MW. Der maximale abgerufene Preis bei Aufruf liegt im Mittel bei 26 €/MW.

 

Für positive Reservearbeit sieht das Bild wie folgt aus:

Abgerufene positive Arbeit MRL

Hier liegt der mittlere erzielte Arbeispreis regelmäßig nur geringfügig unter dem maximalen erzielten Preis. Offenbar ist ein großer Teil der Marktteilnehmer recht gut darin, den Clearingpreis zu raten. Weiterhin sieht man, dass ein relativ hoher Bedarf nicht notwendig zu hohen Arbeitspreisen führt.

 

Positive Regelenergie-Arbeitspreise müssen die Grenzkosten der Erzeugung für ein Kraftwerk decken. Die optimale Bestimmung der (Mindest-)Angebotspreise ist somit eine Aufgabe im Rahmen der Einsatzoptimierung des Kraftwerks.

Erlöse aus der Primärreserve

Ähnliche Betrachtungen wie gerade gezeigt können auch für den Sekundärreservemarkt gemacht werden. Naturgemäß sind hier die möglichen Erlöse höher. Wir stellen hier als letzten Punkt den Primärreservemarkt da. Dort gibt es nur Leistungspreise. Die Graphik zeigt den maximal bezuschlagten und den mittleren Leistungspreis jeder Ausschreibungswoche. Diese letzte Darstellung hat vorrangig das Ziel, die Unterschiede im Preisniveau gegenüber dem MRL-Markt zu demonstrieren.

Leistungspreise PRL

Im Jahr 2016 hätte man hier mit einem Leistungspreis von 1900 €/MW stets einen Zuschlag erhalten. Über 52 Wochen des Jahres ergeben sich hieraus Erlöse von knapp 100 T €/MW. Somit ist dort relativ einfach ein Vielfaches der möglichen Erlöse auf dem Minutenreservemarkt erzielbar. Soll jedoch – wie dies bei den Visionen zu virtuellen Kraftwerken und Elektromobilität der Fall ist – nur eine Leistung im kW-Bereich vermarktet werden und davon noch ein Dienstleister bezahlt und eine technische Infrastruktur zur Koordinierung der Anlagen amortisiert werden, so wecken auch diese Erlöse keine Phantasien.

 

Die HPFC

von Marianne Diem, Mai 2016
HPFC
Der Artikel präsentiert zunächst einen Adhoc-Ansatz zur Generierung einer HPFC aus OTC oder EEX Terminpreisen und historischen EEX Spotpreisen. Es folgt die Entwicklung eines mathematisch fortgeschrittenen Verfahrens. Dieses greift offensichtliche Kritikpunkte einfacher Ansätze auf und führt zu einer HPFC mit plausibler Struktur und Berücksichtigung von EEG-Effekten.

 

Die HPFC (Hourly Price Forward Curve) gibt die erwarteten stündlichen Strompreise in zukünftigen Lieferperioden an. Mit ihrer Hilfe lassen sich Lastgänge und Reststrukturen in Portfolien bepreisen. Sie ist somit das wesentliche Steuerungsinstrument in Stromhandel und Stromvertrieb. Da die HPFC nicht direkt durch gehandelte Preise vorgegeben ist, ist das Modell zur Generierung der HPFC eines der wichtigsten Modelle der Energiewirtschaft.

 

Die meisten größeren Energieversorger haben ihre eigenen Modelle, viele kleine Energieversorger kaufen HPFC-Kurven für die Bepreisung ihrer Sonderkunden ein.

 

Der vorliegende Artikel beschreibt ein Modell zur Generierung einer Hourly Price Forward Curve (HPFC). Das hier beschriebene Verfahren verwendet bei der Zerlegung der Spotpreise in Trend und Saisonalität  die marktübliche Klassifizierung nach Tagesstunde und Typtag. Die Extraktion der Saisonalität erfolgt mit lokaler Regression. Aus der Untersuchung werden Kriterien zur Beurteilung der HPFC-Qualität abgeleitet.

Ausgangsdaten für die HPFC-Generierung

Die an den OTC-Märkten und der EEX gehandelten Terminkontrakte Base und Peak bestimmen das allgemeine Preisniveau auf den Terminmärkten. Diese gehen somit auch Preisniveau-bestimmend in die HPFC-Generierung ein. Allerdings liefern die gehandelten Terminkontrakte nur ein Durchschnittspreisniveau für die in den gehandelten Blöcken enthaltenen Tagesstunden und keine Information darüber, wieviel teurer beispielsweise die Tagesstunde 12 ist als die Tagesstunde 3.

 

Diese Information wird typischerweise historischen Spotpreisen der EEX Stundenauktion entnommen.

 

Weiterhin kann man historische Preis-Relationen zwischen gehandelten Monats-und Quartalskontrakten auswerten, um Jahrespreise auf Quartals- und Monatspreise herunterzubrechen. Hierzu können auch die Preisrelationen vorhandener Terminquotierungen verwendet werden.

 

Der Blick in die Vergangenheit ist eine wesentliche Schwäche von Modellen, die die Struktur ausschließlich aus historischen Spotpreisen generieren: Der Ausbau der Erneuerbaren Energien führt zu einer systematischen Verflachung der Preisstrukturen (d.h. der systematische Preisunterschied zwischen Tagesstunde 12 und Tagesstunde 3 wird immer geringer), die aus der Vergangenheit nicht ausgelesen werden kann. Doch hierzu später mehr.

Arbitragefreiheit

Die zentrale und meistzitierte Anforderung an ein HPFC-Modell ist Arbitragefreiheit. Arbitragefreiheit ist eine fundamentale Anforderung an alle Modelle in Handel und Finanzmathematik und bedeutet zunächst einmal, dass das Modell nicht ermöglichen darf, mit einem risikolosen Geschäft Gewinn zu machen.

 

Im Konkreten wird hier ein Geschäft der folgenden Art betrachtet: Ich kaufe einen Standardkontrakt am Markt zum derzeit gehandelten Preis und verkaufe denselben Standardkontrakt zum HPFC-Preis an einen Kunden. Offensichtlich sollte die HPFC (ohne Margen und Aufschläge) für Standardkontrakte den Preis wieder zurück liefern, der in das Modell als Ausgangsdatum eingegangen ist.

 

Die Arbitragefreiheit ist somit auch das erste, was beim Einkauf einer HPFC geprüft werden sollte. Für viele Zwecke (z.B. für die Tagesendbewertung von Portfolien) werden Settlement-HPFCs benötigt. Diese sollten zu den Settlementpreisen der Börse arbitragefrei sein.

Überblick über die Modellgenerierung

Liegen die Ausgangdaten vor, so erfolgt die Verfeinerung der Preisinformation der HPFC für den avisierten Terminzeitraum schrittweise auf Basis der jeweils geeigneten historischen Preisrelationen:

  • Generierung der Quartalspreise
  • Generierung der Monatspreise
  • Generierung einer ersten Stunden-Preiskurve (HPFC)
  • Sicherstellung der Arbitragefreiheit

Professionellere Modelle beinhalten oftmals

  • Glättungsverfahren
  • Regressionsmodelle

Generierung der Quartalspreise

Im Allgemeinen wird eine HPFC für die folgenden 3 Jahre in die Zukunft generiert. Für diesen Zeitraum liegen nicht für alle Quartalskontrakte Settlementpreise der EEX oder liquide realisierbare OTC-Preise vor. Im ersten Terminjahr ist dies jedoch im allgemeinen der Fall und man kann eine Quartalspreis-Tabelle der folgenden Form angeben:

 

Tabelle 1
Basepreis (€/MWh) Peakpreis (€/MWh) Offpeakpreis (€/MWh)
21,01 25,34 18,57
24,85 30,17 21,89
25,29 27,63 24,01
21,92 24,42 20,52

Dabei ergeben sich die Offpeak-Preise des Quartals jeweils rein rechnerisch aus den Base- und Peakpreisen des Quartals als:

P_O = \frac{P_B \cdot A_B - P_P \cdot A_P}{A_O}

wobei

PB der Base-Preis,
PP der Peak-Preis,
PO der Offpeak-Preis,
AB die Anzahl der Basestunden,
AP die Anzahl der Peakstunden,
AO die Anzahl der Offpeak-Stunden sind.

In den weiter in der Zukunft liegenden Lieferjahren sind jedoch in der Regel nicht alle Quartalskontrakte an den Handelsmärkten liquide handelbar und es gibt somit nicht für alle Quartale belastbare Base- und Peak-Preise, die für die HPFC verwendet werden können.Die Situation für Base- und Peakpreise kann dabei separat betrachtet werden. Es gibt dann die folgenden 3 Fälle:

  • nur der Jahrespreis ist vorhanden
  • Jahrespreis und 1 Quartalspreis sind vorhanden
  • Jahrespreis und 2 Quartalspreise sind vorhanden

Sind nämlich 3 Quartalspreise vorhanden, so ergibt sich das 4te Quartal rein rechnerisch aus dem Jahrespreis und den anderen 3 Quartalspreisen als:

P_Q = \frac{P_J \cdot A_J -P_{Q_1} \cdot A_{Q_1} - P_{Q_2} \cdot A_{Q_2} - P_{Q_3} \cdot A_{Q_3}} {A_Q}

wobei

PQ der Preis des unbekannten Quartalskontraktes
PJ der Preis des Jahreskontrakts,
PQi der Preis des jeweiligen bekannten Quartals,
AQ die Anzahl der Stunden des unbekannten Quartalskontrakts,
AJ die Anzahl der Stunden des Jahreskontraktes
AQi die Anzahl der Stunden des jeweiligen bekannten Quartals

 

Auch auf diese Formeln wird oftmals mit dem Schlagwort Arbitragefreiheit Bezug genommen. Wir wollen jetzt aber auf die Fälle eingehen, wo sich nicht alle Quartalspreise aus aktuellen Terminpreisen direkt errechnen lassen.

1. Nur der Jahreskontrakt ist vorhanden (liquide handelbar)

In diesem Falle werden die Quartalspreise aus dem Jahrespreis ermittelt, indem der Jahrespreis mit geeignet ermittelten Faktoren multipliziert wird. Dabei gilt:

P_{Q_i} = q_i \cdot P_J

wobei

PQi der Preis des jeweiligen Quartalskontrakts,
PJ der Preis des Jahreskontrakts,
qi der Faktor für den jeweiligen Quartalskontrakt.

Die Faktoren werden dabei in einem Zeitraum, in dem alle Quartalskontrakte quotiert sind, als Quotient aus dem jeweiligen Quartalspreis und dem Jahrespreis ermittelt. Hierfür kommen aktuelle Terminquotierungen aus dem Folgejahr in Frage oder über einen längeren Zeitraum gemittelte Quotienten aus historischen Quotierungen.

Damit die Arbitragefreiheit erfüllt bleibt, müssen die Faktoren qi die folgende Gleichung erfüllen:

q_1 \cdot A_{Q_1}  + \cdots + q_4 \cdot A_{Q_4} = A_J

2. Der Jahrespreis und ein oder zwei Quartalspreis sind vorhanden

In diesem Fall wird zunächst der Preis des nicht quotierten Restjahres wie oben ermittelt und dann mittels Faktoren auf die unquotierten Quartale verteilt.

 

Generierung der Monatspreise

Auch bei Monatspreisen gibt es wieder die beiden Situationen:

  • nur der Quartalspreis ist vorhanden
  • der Quartalspreis und ein Monatspreis ist vorhanden

Sind 2 Monatskontrakte vorhanden, so lässt sich der dritte Monatspreis analog zu der Situation oben mit 3 Quartalen rechnerisch ermitteln. In den beiden genannten Fällen müssen die fehlenden Informationen über Quotienten aus historischen Quotierungen gewonnen werden.

 

Nach Durchführung dieses Prozesses für Base- und Peak-Kontrakte erhält man eine Monatspreis-Tabelle der folgenden Form:

 

Tabelle 2
Monat Basepreis (€/MWh) Peakpreis (€/MWh) Offpeakpreis (€/MWh)
Januar 20,00 20,27 19,84
Februar 19,32 21,34 18,20
März 23,56 34,28 17,66
April 27,98 38,72 22,20
Mai 25,32 28,42 23,49
Juni 21,23 23,54 19,99
Juli 24,56 27,75 22,81
August 29,32 31,45 28,06
September 21,89 23,12 21,28
Oktober 21,56 24,56 19,79
November 23,00 23,82 22,53
Dezember 21,24 24,91 19,36

 

Die Tagesstunden-Struktur

Jetzt wird es langsam spannend! Die Aufgabe ist nun, aus der stark zufälligen Struktur der Spotpreise eine systematische, erwartete Struktur zu generieren. Schauen wir uns die Spotpreise zunächst einmal an. Hier ein EEX-Spotpreis-Plot über etwa 3 Jahre:

HPFC Spotpreisplot
Graphik 1

Zunächst fällt auf, dass die Zeitreihe Ausreißer enthält, die auf jede Art von Mittelwertbildung dominant durchschlagen. Möglicherweise sollte man diese Ausreißer zunächst bereinigen.

 

Danach gilt es, die unregelmäßige Struktur der EEX-Spotpreise in eine systematische Wochenstruktur (Saisonalität) und ein sich veränderndes Preisniveau (Trend) zu zerlegen. Hierüber haben sich bereits andere Gedanken gemacht und wir verwenden hier für eine erste optische Einschätzung das in R implementierte STL-Verfahren. Dies liefert die folgende Wochenstruktur:

HPFC Wochenstruktur
Graphik 2

Die Zeitreihe mit 1/4h Auflösung beginnt Sonntag 0 Uhr und endet Samstag 24 Uhr. Man sieht, dass Samstag und Sonntag jeweils eine deutlich andere Preisstruktur haben als die Arbeitstage. Weiterhin sieht man, dass der Montag mit einem deutlich niedrigeren Preisniveau startet als die anderen Arbeitstage. Der Freitag unterscheidet sich geringfügig, Dienstag bis Donnerstag sehen sehr ähnlich aus.

 

Mit dieser Motivation möchten wir für die Generierung einer HPFC die folgenden sogenannten Typtage unterscheiden:

  • Mo (Typtag 1)
  • Di-Do (Typtag 2)
  • Fr (Typtag 3)
  • Sa (Typtag 4)
  • So (Typtag 5)

Bei dieser Einteilung gibt es einigen Ermessensspielraum. Brückentage zeigen eine deutlich andere Struktur als normale Arbeitstage. Die Datenbasis reicht aber vernünftigerweise nicht aus, sie als eigenen Typtag zu deklarieren. Sie können zum Beispiel ebenfalls dem Typtag 4 zugeordnet werden. Nicht alle Feiertage schlagen wirklich auf das Preisniveau durch. Durch die zunehmende Europäisierung der Energiemärkte ist dabei nicht unerheblich, ob der Feiertag auch außerhalb Deutschlands ein Feiertag ist. Dies bedeutet, dass katholische Feiertage oftmals deutlicher im Preisniveau durchschlagen als Feiertage wie der Tag der Deutschen Einheit, die nur in Deutschland gelten.

Eine erste HPFC

Nun sind wir vorbereitet, eine erste, sehr einfache HPFC zu generieren. Hierzu werden jeder Stunde des Zeitraums, für den die HPFC generiert werden soll, Daten wie die folgenden zugeordnet. Die letzten beiden Spalten sind dabei das Ergebnis der Berechnung:

 

Tabelle 3
Zeitstempel Typtag Peak/Offpeak Monatspreis (€/MWh) Faktor HPFC-Preis (€/MWh)
01.01.2018 00:00 2 (Mi) Offpeak 21,27 0,9 19,14
01.01.2018 01:00 2 (Mi) Offpeak 21,27 0,7 14,89
01.01.2018 02:00 2 (Mi) Offpeak 10,63 0,5 10,63

 

Die Einträge der einzelnen Spalten ergeben sich dabei wie folgt:

  • Der Typtag ergibt sich aus dem Wochentag des Zeitstempels
  • Der Peak/Offpeak Eintrag ergibt sich ebenfalls aus dem Zeitstempel: Peakstunden erhalten Peak, Offpeakstunden Offpeak
  • Der Monatspreis ist für Peakstunden der Peakpreis, für Offpeakstunden der Offpeakpreis des jeweiligen Monats gemäß der Monats-Preiskurve
  • Die Ermittlung des Faktors aus historischen EEX-Spotpreisen wird im Folgenden besprochen
  • Der HPFC-Preis ergibt sich als Monatspreis x Faktor

Es verbleibt somit die Bestimmung der Faktoren. Dabei wird ein Faktor jeweils eindeutig bestimmt durch:

  • Tagesstunde
  • Typtag
  • Monat

Hierfür gehen wir wie folgt vor: Zunächst bilden wir für jede historisch betrachtete Stunde den Quotienten aus EEX-Spotpreis und Monatspreis; diesen Quotienten nennen wir historischen Faktor zu der entsprechenden Stunde.

 

Das Ergebnis sieht dann beispielsweise so aus, wobei die Einträge in der Spalte „historischer Faktor“ berechnet worden sind:

 

Tabelle 4
Zeitstempel Typtag Peak/Offpeak Monatspreis (€/MWh) historischer Faktor EEX-Preis (€/MWh)
01.01.12 00 5 (So) Offpeak 20,23 0,8 16,18
01.01.12 01 5 (So) Offpeak 20,23 0,6 12,14
01.01.12 01 5 (So) Offpeak 20,23 0,4 8,09

Es ergibt sich:

  • der Typtag aus dem Zeitstempel,
  • der Monatspreis für Peakstunden als der mittlere EEX-Spotpreis über alle Peakstunden des Monats, für Offpeakstunden über alle Offpeakstunden des Monats
  • der historische Faktor aus dem in diesem Fall bekannten EEX-Spotpreis als EEX-Spotpreis / Monatspreis

Nun bildet man für jede Kombination aus Tagesstunde, Typtag und Monat in Tabelle 4 den Mittelwert über die historischen Faktoren. Hierzu kann man eine Pivot-Tabelle benutzen. Das Ergebnis ist ein Faktor für jede der Kombinationen. Diese Faktoren tragen wir in Tabelle 3 ein und berechnen dann hiermit die HPFC-Preise.

 

Auf diese Weise erhält man eine einfache HPFC, wie sie so oder ähnlich vor 10 Jahren in vielen Unternehmen verbreitet war. Sie sieht so aus:

Hpfc einfach
Graphik 3

Man erkennt deutlich die jeweils an der Monatsgrenze auftretenden Struktur- und Niveaubrüche, die in dieser Form nicht plausibel sind.

Schwächen des HPFC-Basismodells

Mit dem Monatswechsel ändert sich abrupt sowohl die Preisstruktur als auch das Preisniveau. Weiterhin entstehen durch die unabhängige Erzeugung von Peak- und Offpeakpreisen unplausible Übergänge (Zacken) zwischen Peak- und Offpeakzeiten (d.h. die Tagesstunde 8 kann höher sein als die Tagesstunde 9).

 

Möchte man nur natürliche Jahresprofile bepreisen, wie z.B. den tatsächlichen Bedarf eines Sonderkunden, so ist dieser methodische Mangel wirtschaftlich von geringerer Relevanz. Anders sieht es aus, wenn man ein Handelsportfolio mit Reststrukturen bewerten möchte und mit der HPFC auch strukturierte Positionen im kurzfristigeren Bereich bewertet werden sollen.

 

Insgesamt gelten Stufen in der HPFC als offensichtlicher Qualitätsmangel.

HPFC mit kontinuierlichen Verläufen durch Glättungsverfahren

Um eine HPFC ohne Stufen zu erhalten,  müssen sowohl kontinuierliche monatliche Preisniveaus als auch kontinuierliche Faktoren generiert werden. Hierfür werden Glättungsverfahren angewandt.

1. Glättung der Monatsniveaus

Ordnet man in einem Diagramm allen Offpeakstunden des Jahres den jeweils zugewiesenen Monats-Offpeakpreis zu, so sieht das gemäß Tabelle 2 oben zunächst so aus:

HPFC Verlauf Offpeakniveau
Graphik 4

Diese Kurve soll nun geglättet werden. Der Durchschnittspreis über alle Offpeakstunden des jeweiligen Monats soll sich dabei jedoch nicht ändern. Das heißt jede Offpeakstunde des Jahres erhält jetzt einen leicht anderen Preis, so dass es keine abrupten Monatsübergänge mehr gibt. Der Dezember geht dabei kontinuierlich in den Januar über. Dies könnte so aussehen:

HPFC Verlauf Offpeakniveau geglättet
Graphik 5

Um dies zu erreichen, kommen verschiedene mathematische Glättungsverfahren in Frage. Wir verwenden hier kubische Splines.

 

Ebenso muss die Monatskurve der Peakpreise aus Tabelle 2 durch eine kontinuierliche Kurve ersetzt werden, die jeder Peakstunde des HPFC-Jahres einen sich kontinuierlich verändernden Preis zuordnet. Auf diese Weise lässt sich die abrupte Änderung des Preisniveaus beim Monatsübergang glätten und man erhält ein sich kontinuierliches änderndes Stundenpreisniveau Peak und Offpeak.

2. Generierung kontinuierlicher Faktoren

Die Basis-HPFC enthält auch beim Verlauf der Faktoren Sprünge im Monatswechsel. Hier zum Beispiel der in der Tabelle Erste HPFC (Tabelle 3) zur Anwendung kommenden Faktor für die Tagesstunde 9  und den Typtag 2:

HPFC Faktorverlauf eckig
Graphik 6

Die jetzt geglätteten Monatsniveaus repräsentieren unterschiedliche Niveaus für jede Stunde, die das unterschiedliche Preisniveau im Jahresverlauf berücksichtigen, aber keine Wochensaisonalität enthalten. Passend zu den glatten Monatsniveaus generieren wir neue, von vornherein glatte Faktoren. Dies wird im Endergebnis bedeuten, dass wir jeder Stunde der HPFC einen eigenen Faktor zuordnen werden, nicht nur jeder Kombination von Typtag, Tagesstunde und Monat. Typtage und Tagesstunden werden allerdings weiterhin eine wichtige Rolle bei der Berechnung spielen.

 

Zunächst erzeugen wir aus den EEX-Spotpreisen ein tägliches Preisniveau, das um Wochensaisonalität bereinigt ist. Hierzu bilden wir separat für zeitlich geordnete Peak- und Offpeakpreise einen gleitenden Wochendurchschnitt mit symmetrischem Fenster:

HPFC stündliches Preisniveau
Graphik 7

Die Graphik zeigt die zeitlich geordneten Offpeakpreise (blau) und den zugehörigen gleitenden Offpeak-Wochendurchschnitt (rot). Der am Terminmarkt sichtbare Spread zwischen Winter- und Sommerquartalen materialisiert sich am Spotmarkt nicht. Das über den gleitenden Durchschnitt generierte Offpeak-Preisniveau am Spotmarkt schwankt unspezifisch um dasselbe Preisniveau. Dieses Verhalten wird an den Finanzmärkten oft als Noise (Rauschen) bezeichnet.

 

Wir errechnen nun die Quotienten aus dem stündlichen EEX-Preis und dem jeweils relevanten gleitenden Wochendurchschnitt (Peak oder Offpeak). Diese Quotienten nennen wir historische Faktoren. Betrachtet man den Verlauf der historischen Faktoren für gegebenen Typtag und gegebene Tagesstunde, so erhält man zunächst eine Punktwolke.

 

Die folgende Graphik zeigt beispielhaft den Verlauf dieser Faktoren für die Tagesstunde 12, Typtag 2. Die Faktoren schwanken um ein Niveau nahe bei 1 und zeigen im Zeitverlauf einen minimal abfallenden Trend (rot):

HPFC Verlauf Faktor geglättet
Graphik 8

Der abfallende Trend spiegelt ein sich langsam vergrößerndes Tal um die Mittagszeit wieder und kann durch die anwachsende Solareinspeisung erklärt werden. Es ist plausibel, so einen Trend in die Zukunft fortzuschreiben, und so verfahren wir auch im Folgenden.

 

Weiterhin prüfen wir, ob der Verlauf der glatten historischen Faktoren unabhängig von seinem langfristigen Trend eine Jahressaisonalität besitzt. Tatsächlich lässt sich aus trendbereinigten Faktoren mit lokaler Regression eine schwache Jahressaisonalität extrahieren:

HPFC Jahresperiodizität Faktor
Graphik 9

Für eine bestimmte Stunde (Zeitstempel) der HPFC ergibt sich der Faktor für die HPFC nun als Summe von zwei Komponenten, einer saisonalen Komponente, die wir saisonalZ nennen, und einer Trendkomponente, die wir trendZ nennen. Diese sind wie folgt gegeben: Es sei T der Typtag und S die Tagesstunde von Z. Dann ist:

  • saisonalZ : der saisonale Aufschlag, der aus den historischen Faktoren zu Tagesstunde S und Typttag T extrahiert wurde. Dies ist der Wert der roten Linie in Graphik 9 für die entsprechende Stunde im Jahr.
  • trendZ : Ergebnis des fortgeschriebenen Trends der glatten historischen Faktoren für Tagesstunde S und Typttag T. Dies ist der Wert der Fortsetzung der roten Linie in Graphik 8 bis zur Stunde Z.

Ergebnis

Ein vorläufiger HPFC-Preis für eine Stunde Z ergibt sich nun als Produkt des geglätteten Monatspeak- oder -offpeakniveaus der Stunde Z mit dem Faktor der Stunde Z.

 

Aus der unabhängigen Bearbeitung von Peak- und Offpeakstunden können Zacken im Übergang entstehen. Somit ist es sinnvoll, den tatsächlich entstehenden Tagesverlauf an dem Übergang noch lokal zu glätten.

 

Mit der Erzeugung glatter Preisniveaus und glatter Faktoren sowie glatter Übergänge zwischen Peak- und Offpeakzeiten entsteht eine glatte HPFC.

 

Allerdings ist die resultierende HPFC nun nicht mehr arbitragefrei. Die Arbitragefreiheit muss nun nachträglich wiederhergestellt werden. Hierzu müssen die Preise so angepasst werden, dass sich wieder die richtigen mittleren monatlichen Peak- und Offpeakniveaus aus Tabelle 2 oben ergeben. Je nach verwendetem Verfahren können hierdurch wieder Brüche im Monatsübergang und am Peak- Offpeak-Übergang entstehen. Diese sollten optimalerweise so klein sein, dass keine erneute Glättung erforderlich ist.

 

Das Ergebnis sieht dann etwa so aus:

HPFC
Graphik 10

Prüfkriterien an eine HPFC

Aus der Darstellung ergeben sich einige naheliegende Prüfkriterien an eine HPFC:

  • Die HPFC muss arbitragefrei sein.
  • Sie sollte glatte und plausible Übergänge beim Monatswechsel und beim Wechsel von Peak- zu Offpeakzeiten und auch im Jahresübergang haben.
  • Eine optische Prüfung der Wochenstruktur sollte ein plausibles Ergebnis zeigen.
  • Gelegentlich wird ein auf Großhandelsniveau skaliertes H0-Profil, das GH0-Profil, auf den OTC-Märkten gehandelt. Der gehandelte Preis liefert in Verbindung mit dem Preis in GH0 enthaltener Standardprodukte einen direkten Markt-Benchmark für die HPFC-Struktur.
  • Eine HPFC, die ausschließlich historische EEX-Preise in die Generierung der Preisstrukturen einbezieht, sollte die dort enthaltenen Preisstrukturen auch wiedergeben.
  • Eine HPFC, die auch EEG und andere Effekte antizipiert, muss sich im nachhinein gegen die tatsächlich eintretenden EEX-Preise messen lassen.

Die letzten beiden Bedingungen kann man beurteilen, indem man typische regelmäßige Profile (z.B. Haushaltskundenprofil) einerseits mit der HPFC, andererseits mit ungemittelt nach vorne geschobenen EEX-Preisen bzw. den tatsächlich eingetretenen EEX-Preisen bepreist. Die HPFC muss dabei für ein Terminpreisniveau erzeugt werden, das genau den relevanten Monatsmittelwerten der nach vorne geschobenen EEX-Preise bzw. eingetretenen EEX-Preise entspricht. Dann kann man auch die typische Woche (Mittelwert aller Montage, Dienstage usw.) für EEX-Preise und HPFC vergleichen, um Strukturunterschieden und möglichen Mängeln der HPFC nachzugehen.

HPFC-Modelle mit Regression

Ein wachsendes Problem ist, dass die EEX-Spotdaten der Vergangenheit keine gute Prognose der Zukunft liefern, da sich durch den Zubau der Erneuerbaren die Fundamentaldaten ändern. Vor diesem Hintergrund wäre es sinnvoll, nur Terminpreise (Base und Peak) in das HPFC-Modell eingehen zu lassen und die Struktur aus einem Fundamentalmodell zu generieren.

 

Ein anderer Ansatz ist, die Rohdaten, d.h. die EEX-Spotpreise mit einer Regressionsanalyse in Abhängigkeit von der stündlichen EEG-Einspeisung in zwei Teile zu zerlegen:

  • ein EEG-Preisanteil, der sich durch die EEG-Einspeisung erklärt
  • ein Kalender-Preisanteil, der durch Trend, wöchentliche Saisonalität, Feiertage usw. erklärt werden soll.

Dann kann die Fundamentalprognose darauf beschränkt werden, ein Stundenprofil für die typische EEG-Einspeisung in den Folgejahren zu generieren. Aus diesem ergibt sich dann der EEG-Preisanteil, während der Kalender-Preisanteil mit üblichen Verfahren zur Extrahierung von Trend und Saisonalität behandelt werden kann. Dieser Ansatz liefert zunächst einmal eine additive Zerlegung des Strompreises.

 

Eine Regressionsanalyse kann auch erst auf den extrahierten Faktorverlauf angewendet werden. Aber auch die hier gewählte reine Fortschreibung des Trends im Faktorverlauf stellt eine Antizipation des EEG-Ausbaus wie in der Vergangenheit dar. Insgesamt ist ein HPFC-Modell, dass den EEG-Ausbau nicht berücksichtigt, nicht mehr wirklich vertretbar.

 

Es gibt auch Ansätze, die HPFC-Struktur vollständig über ein Regressionsmodell zu generieren. Diese bedeutet, dass auch die Kalenderabhängigkeiten über Regressionen bestimmt werden. Bei solchen Ansätzen startet man mit einem sehr vieldimensionalen Problem mit stark korrelierten Ausgangsdaten. Somit wurden für eine solche Analyse auch dimensionsreduzierende Verfahren vorgeschlagen. Siehe dazu z.B. das Buch Stromhandel von Dr. Borchert und anderen.

 

In jedem Falle sind die Verfahren aber so anzupassen, dass sich am Ende eine arbitragefreie HPFC ergibt. Aus der EEG-Einspeisung und den historischen EEX-Spotpreisen werden immer nur Strukturinformationen, keine Informationen über das durchschnittliche Preisniveau abgeleitet.

 

Zu guter Letzt ist noch zu sagen, dass die Arbeit mit der Generierung einer stündlichen HPFC nicht getan ist: Lasten im Marktregime der deutschen Energiewirtschaft sind 1/4-h-Lastgänge und auch die 1/4-h-Struktur muss bepreist werden. Wie das geht, steht in dem Artikel „Der Sägezahn“.

 

Der Sägezahn

 

… oder wozu braucht man eine viertelstündliche HPFC

von Marianne Diem, Juni 2016
Sägezahn Titelbild

Ein marktübliches Verfahren zur Bepreisung der Viertelstundenstruktur eines Lastgangs.

Bepreist man einen Lastgang als fixer Fahrplan mit einer stundenscharfen HPFC, so sind mit dem resultierenden Preis nur die Kosten für die Lieferung des stündlichen Mittelwertfahrplans gedeckt. Die viertelstündliche Abweichung von diesem Mittelwertfahrplan erzielt mit einer HPFC, die nur stündlich verschiedene Werte hat, immer den Preis Null. Das heißt aber nicht, dass der Markt diese Differenz umsonst liefert:

 

Auch die Viertelstundenabweichung des Lastgangs muss beschafft werden. Da die Stundenauktion der Börse von vielen Marktteilnehmern lange Zeit als der letzte reguläre Beschaffungsmarkt vor Lieferung angesehen wurde, erfolgte die Beschaffung der verbleibenden Viertelstundenabweichung in großem Maße über den Ausgleichsenergiemarkt. Dies änderte sich im Oktober 2013 als die Bundesnetzagentur die Marktteilnehmer in einem Positionspapier (BK6-13-104) offiziell aufforderte, ihrer Verpflichtung einer ausgeglichenen Bilanz auch auf Viertelstundenbasis nachzukommen.

Struktur der viertelstündlichen Abweichung

Die Viertelstundenabweichung eines Lastgangs hat eine charakteristische Struktur, die oftmals als Sägezahn bezeichnet wird:

SägezahnH0

Für jede Stunde wird im Mittelwert Null geliefert. Die einzelnen Viertelstunden zeigen positive und negative Lastwerte, die über die Woche eine typische Sägezahnstruktur ergeben. Die Abbildung zeigt die mittlere Viertelstundenabweichung eines H0-Profils am Montag. Die typische Woche sieht für das H0-Profil so aus:

Sägezahn WochenstrukturErfolgt die Eindeckung der Abweichung auf dem Ausgleichsenergiemarkt, so sind die jeweiligen Abweichungen mit Ausgleichsenergiepreisen zu bewerten. Kostenbestimmend ist hier nicht der absolute Ausgleichsenergiepreis, sondern wiederum nur die Differenz zwischen dem viertelstündlichen Ausgleichsenergiepreis und seinem stündlichen Mittelwert. Dies ergibt sich aus der folgenden Rechnung, die für jede Stunde des Viertelstunden-Differenzlastgangs L erfolgen kann:

K_S = \sum_{i \in S} L_i \cdot A_i = \sum_{i \in S} L_i \cdot (A_S +(A_i -A_S)) =

= \underbrace{A_S \cdot \sum_{i \in S} L_i }+ \sum_{i \in S} L_i \cdot (A_i - A_S) 
= 0 , da die Summe der Lasten Null ist und der Preis als Konstante ausgeklammert werden kann,
wobei

S die Stunde
i die Viertelstunden der Stunde S
KS die Kosten in der Stunde S
Li die Last in der Viertelstunde i
Ai der Ausgleichsenergiepreis in der Viertelstunde i
AS der mittlere Ausgleichsenergiepreis in der Stunde S

Sieht man sich die Struktur der Ausgleichsenergiepreise an, so begegnet man wieder dem Sägezahn:

Sägezahn Ausgleichsenergiepreis

Das Bild zeigt den typischen Montag für die Ausgleichsenergiepreise 2012, in diesem Jahr ist die Übereinstimmung der Strukturen besonders sichtbar. Seither hat sich die Struktur verflacht. Hier die typische Woche:

Sägezahn RegelpreiseDie sehr ähnliche Struktur führt dazu, dass für den Vertrieb immer Kosten entstehen: Entsteht aus der Eindeckung des Mittelwertfahrplans eine offene Longposition (d.h. es wurde auf Viertelstundenbasis zuviel beschafft), so ist der relevante Ausgleichsenergie-Differenzpreis negativ, wurde zuwenig beschafft, so ist der Ausgleichsenergie-Differenzpreis positiv.

Beschaffungskosten für den Sägezahn

Die Kosten aus der Viertelstundenabweichung müssen eingepreist werden und dies sollte eine viertelstündliche HPFC leisten. Die Frage ist, wie man zu einer guten Prognose der Sägezahnkosten kommt. Hierzu kann man sich einmal die zeitliche Entwicklung der relativen Kosten aus dem Sägezahn in den Jahren 2012-2015 für die klassischen SLP-Profile ansehen:

Kostenentwicklung Sägezahn

Man sieht, dass die Kosten bei Beschaffung des Sägezahns auf dem Ausgleichsenergiemarkt durchgehend im Jahr 2012 am höchsten waren und danach mehr oder weniger durchgängig gesunken sind. Das absolute Niveau ist dabei für das Haushaltskundenprofil am höchsten.

 

Dies spiegelt sich auch in der Struktur der Ausgleichsenergiepreise wieder. Betrachtet man den Sägezahn für die Ausgleichsenergiepreise im Jahr 2015, so sieht die Struktur weit zufälliger aus als der oben gezeigte Sägezahn 2012. Hieraus erklären sich die weit geringeren systematischen Kosten:
Struktur Ausgleichsenergie-Sägezahn 2015

Ursachen der Kostenentwicklung

Der Ausgleichsenergiemarkt ist von Fundamentaleffekten bestimmt. Mit der Einführung negativer Ausgleichsenergiepreise in 2009 stiegen die Ausgleichsenergiekosten zunächst stark an. Seit Juni 2010 gibt es einen einheitlichen Ausgleichsenergiepreis für alle Regelzonen, dies ist tendenziell kostensenkend. Eine große Rolle spielt die Liquidität und das Volumen am Intradaymarkt. Mit der offiziellen Aufforderung der Bundesnetzagentur, die Leistungbilanz viertelstündlich auszugleichen, ist es nicht mehr zulässig, die Sägezahnposition unbearbeitet in den Ausgleichsenergiemarkt laufen zu lassen. Infolge mussten sich die Marktteilnehmer bemühen, diese Positionen – teilweise über Dienstleister – am Intradaymarkt glattzustellen. Das Handelsvolumen am Intradaymarkt stieg somit in den Jahren 2013 und 2014 jeweils auf das Doppelte an. Seit dem Jahr 2015 gibt es weiterhin die 1/4-stündliche Börsenauktion als Beschaffungsmöglichkeit. Die Ausgleichsenergiepreise sind somit nicht mehr der relevante Preisindikator für die Sägezahnposition des Vertriebsportfolios. Bekannte Positionen wie die 1/4-h-Abweichung werden am Intradaymarkt und am Spotmarkt glattgestellt. Die Position, die in den Ausgleichsenergiemarkt läuft, ist zufällig, somit auch die erzielten Preise für die Position. Die Bewertung der 1/4-h-Abweichung sollte somit mit Intraday- oder Spotpreisen erfolgen, da ja auch die Beschaffung an diesen Märkten erfolgen muss.

 

Dies heißt jedoch nicht, dass die typischen, kostengenerierenden Preisstrukturen damit verschwunden wären. In einer offiziellen Stellungnahme gegenüber der Bundesnetzagentur Ende 2014 wies die EPEXSPOT SE die folgende Preisstruktur der gehandelten Viertelstundenprodukte aus:

EPEXSPOT SägezahnAuch hier findet sich wieder der typische kostengenerierende Sägezahn.

1/4-h- HPFC

Vielfach war oder ist es üblich, die Bepreisung eines 1/4-h Lastgangs in zwei Schritten vorzunehmen: Zunächst wird der stündliche Mittelwertfahrplan mit einer stündlichen HPFC bepreist, dann wird die 1/4-h-Differenz von diesem Mittelwertfahrplan mit fortgeschriebenen 1/4-h-Spot- oder Intradaypreisen bepreist.

 

Mit einer 1/4-h-HPFC können beide Schritte in einem Schritt durchgeführt werden. Hierzu müssen die fortgeschriebenen Spot- oder Intradaypreise um ihren stündlichen Mittelwert bereinigt werden. Die oben dargestellte Formel zeigt, dass dies die Kosten für die Viertelstundendifferenz nicht ändert. Gleichzeitig können die um den stündlichen Mittelwert bereinigten 1/4-h-Preise auf eine stündliche HPFC addiert werden, ohne dass sich hierdurch der Preis eines stündlichen Fahrplans ändert. Somit erhält man auf diese Weise eine 1/4-h-HPFC, mit deren Hilfe sich die Kosten eines 1/4-h-Fahrplans in einem Schritt ermitteln lassen.

 

Ein solches Modell schreibt die Preisstruktur der Vergangenheit 1:1 in die Zukunft und führt dazu, dass für gleiche Profile jeweils Kosten der 1/4-h-Abweichung wie im Vorjahr prognostiziert werden. Ob die Preisstruktur der Vergangenheit weiterhin repräsentativ ist, muss dabei sorgfältig überwacht werden.