Schlagwort: Standardlastprofil

Lastprognose- und Forecastverfahren

von Marianne Diem, April 2017
Lastprognose Titelbild

In der Energiewirtschaft werden fast alle entscheidenden Daten durch Zeitreihen beschrieben. Die Fortschreibung dieser Zeitreihen und die Qualität der Prognosen und Forecastverfahren bestimmt entscheidend das finanzielle Ergebnis.

Prognosen und Forecastverfahren werden routinemäßig für die kurzfristige und langfristige Prognose von Lastgängen benötigt. Weiterhin werden oftmals auch Spot-, Regel- und Ausgleichsenergiepreise mit ähnlichen Verfahren in die Zukunft geschrieben. Die folgende kleine Einführung in das Thema Zeitreihenanalyse und Forecasts beinhaltet:

Analyse und Visualisierung der historischen Daten

Der erste Schritt bei der Erstellung einer Prognose sollte stets in der Analyse und Visualisierung der historischen Daten bestehen. Die Visualisierung ermöglicht, Datenfehler und Ausreißer zu erkennen und Muster in den Daten zu finden.

1. Visualisierung von Zeitreihen

Für Zeitreihen ist die erste naheliegende Darstellung der Zeitreihenplot. Eine solche Visualisierung zeigt:

  • Trends
  • Ausreißer
  • Einflussfaktoren (temperaturabhängig oder nicht)
  • Saisonalität (Jahres- und Wochenstrukturen)

Hier z.B. eine Historie der Spotpreise über die Jahre 2015-2016:

EPEX-Zeitreihenplot

Die Spotpreise zeigen offensichtlich Ausreißer aber keinen deutlichen Trend und erstaunlicherweise keine Abhängigkeit von der Jahreszeit. Insgesamt bleibt es eine Ermessensfrage, inwieweit extreme Preise als Ausreißer oder als Teil der normalen Volatilität der Preise gewertet werden sollten. Es ist somit wichtig, der Ursache von extremen Ereignissen genauer nachzugehen, um zu entscheiden, ob diese bereinigt werden sollen und unter welchen Umständen solche Ereignisse in Zukunft zu erwarten sein könnten und somit in den Forecast integriert werden müssen.

 

Zeitreihen in der Energiewirtschaft haben häufig sogenannte Saisonalitäten, d.h. sie zeigen im Jahresverlauf wiederkehrende typische Strukturen. Die Darstellung der typischen Woche zeigt den typischen (d.h. durchschnittlichen) Montag, Dienstag, … , Samstag, Sonntag. Hier wieder für die EPEX-Spotpreise:

EPEX-Typische Woche

Man erkennt:

  • den im Durchschnitt deutlich anderen Preisverlauf am Wochenende (Samstag und Sonntag)
  • den tiefen Einstieg am Montag morgen
  • den leichten Preisabfall am Freitagnachmittag
  • sowie die sehr vergleichbare Last Dienstag-Donnerstag

Die typische Woche gibt einen ersten Einblick, ob eine Last- oder Preiszeitreihe überhaupt Tages- und Wochensaisonalität besitzt und wie stark diese ausgeprägt ist.

 

Üblich ist in der Energiewirtschaft weiterhin die Darstellung von Zeitreihen als geordnete Ganglinie. Hier werden alle Last- oder Preiswerte einfach der Größe nach geordnet angezeigt. Oftmals wird eine solche Ganglinie zusammen mit dem Zeitreihenplot in einer Graphik gezeigt. Hier die Ausgleichsenergiepreise im Jahr 2015 zusammen mit einer geordneten Ganglinie:

 

Rebap geordnete Ganglinie

Geordnete Ganglinien lassen sich leicht optisch beurteilen, datenreduziert darstellen (z.B. mit Fourier-Analyse) und sind somit auch für ein erstes Clustering von Lastgängen geeignet.

2. Beurteilung der Verteilung von historischen Daten

Die Verteilung von Last- und Preiswerten zeigt ein Häufigkeitsdiagramm. Hier die Verteilung der Spotpreise gegen eine Normalverteilung mit gleichem Mittelwert und gleicher Streuung:

Histogramm Spotpreise

Man sieht Abweichungen von der Normalverteilung um den Mittelwert herum, die Ausreißer lassen sich in dieser Darstellung kaum beurteilen.

 

Es ist somit hilfreich, die Häufigkeitsverteilung auch tabellarisch auszuwerten, z.B. über die Quantilwerte:

 

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
-130,090 16,439 21,948 24,700 27,090 29,610 32,024 35,060 39,452 45,960 104,960

 

3. Abhängigkeiten und Korrelationen

Neben der Verteilung der Daten interessiert natürlich die Abhängigkeit der Preise und Lasten von Wetterdaten, kalendarischen Informationen oder anderen Einflussfaktoren. Viele Lastzeitreihen zeigen eine deutliche Abhängigkeit zur Temperatur. Zur Darstellung von Abhängigkeiten dient das Punktediagramm.

 

Bei den Ausgleichsenergiepreisen erwartet man zunächst eine Abhängigkeit vom Regelzonensaldo:

Ausgleichsenergiepreise in Abhängigkeit vom Saldo

Tatsächlich hat der Regelzonensaldo nicht den erwünschten Erklärungsgehalt. Extreme positive und negative Ausgleichsenergiepreise zeigen sich vorrangig bei einem Regelzonensaldo nahe Null.

 

Interessant ist auch die Autokorrelation einer Zeitreihe; diese gibt an, in wieweit vergangene Werte die künftigen Werte bestimmen. Man kann die Autokorrelationskoeffizienten einer Zeitreihe plotten. Dabei wird jeweils die Korrelation zwischen dem Wert in der Position i und dem Wert in der Position i + n für alle „Lagsn geplottet. Für eine Zeitreihe aus unabhängig, standardnormalverteilt streuenden Werten sieht ein solcher Plot so aus:

Autokorrelationsfunktion

 

Die empirischen Korrelationen zwischen den Werten sind klein, aber nicht null. 95% der Balken sollten innerhalb  von

\pm 2 / \sqrt(T)

liegen (roter Korridor), dabei ist T die Länge der Zeitreihe.

 

Im Gegensatz zu diesem Referenzbeispiel sind die Ausgleichsenergiepreise deutlich autokorreliert:

Autokorrelation Ausgleichsenergiepreise

4. Ausreißer und Ausnahmewerte

Für die Beurteilung von Ausreißern ist es zweckmäßig, Datenpunkte zu beschriften. Zum Beispiel ist es für eine HPFC/DFC-Entwicklung relevant, welche Tage eigentlich als Feiertage gewertet werden sollten. Nicht alle Feiertage sind bundesweit und auch bundesweite Feiertage spielen unter Umständen in einem europaweit gekoppelten Strommarkt keine Rolle. Hier das Tages-Spotpreisniveau für die Donnerstage 2015-2016 im Zeitverlauf:

Spot Feiertage

Viele Feiertage befinden sich in guter Gesellschaft mit ihren Nachbarn. Andere – wie die Weiberfastnacht – scheinen wenn überhaupt nach oben auszureißen.

Einfache Prognoseverfahren

Das zunächst einmal naheliegendste Forecastverfahren ist immer die Fortschreibung von Vergangenheitswerten. Hierbei können je nach Bedarf Trends und Saisonalitäten berücksichtigt werden.

1. Einfache Fortschreibung

Eine einfache Fortschreibung kommt für eine kurzfristige Prognose in Frage, wenn die Daten keine Saisonalität besitzen. Die Prognose ist hier immer der jeweils letztgemessene Wert.

 

Die Graphik zeigt eine einfache Fortschreibung für den Minutenreservepreis des Produktes NEG_00_04 (siehe den Artikel zum Regelmarkt):

Einfache Fortschreibung

 

Natürlich kann auch ein geeigneter Mittelwert aus dem Zeitfenster der letzten x Werte in die Zukunft geschrieben werden. Da man im Regelmarkt den entstehenden Preis nie übertreffen darf, kann es hier auch sinnvoll sein, als Prognose ein geeignetes Quantil der letzten Preise zu verwenden. Das Zeitfenster über das gemittelt oder ein Quantil gebildet wird, kann aus der Historie ergebnisoptimal gewählt werden.

 

Eine weitere Möglichkeit ist, die gesamte Historie zu berücksichtigen, aber kürzliche Werte höher zu gewichten als weiter in der Vergangenheit liegende. Dies bezeichnet man als Exponentielle Glättung. Für einen Parameter α ergibt sich der Forecast von y zum Zeitpunkt t+1 dann als:

\hat{y}_{t+1} = \alpha \cdot y_t + \alpha \cdot (1-\alpha) \cdot y_{t-1} + \alpha \cdot (1-\alpha)^2 \cdot y_{t-2} + \cdots

Dabei liegt α zwischen 0 und 1, je höher α desto mehr Gewicht wird den jüngsten Werten gegeben.

2. Typtagsprognosen

Energiewirtschaftliche Daten haben typischerweise eine Tages-, Wochen- und Jahressaisonalität. Entsprechend sind sogenannte Typtagsprognosen in vielen Fällen der erste Ansatz. Weite Verbreitung haben sie bei der Tagesprognose von Lastgängen.

 

Die Typtagsprognose prognostiziert im einfachsten Fall den Lastverlauf eines Montags- entsprechend dem vergangenen Montag, den Lastverlauf am Dienstag entsprechend dem vergangenen Dienstag usw.

 

Oftmals kommen noch die namensgebenden Typtage zur Anwendung, d.h. die Tage werden aufgeteilt nach:

  • Montag
  • Dienstag – Donnerstag
  • Freitag
  • Samstag
  • Sonn- und Feiertag

Wieweit eine solche Aufteilung berechtigt ist, muss eine Analyse vergangener Daten zeigen. Die Prognose eines Tages entspricht jedenfalls dann der Last des nächsten vergangenen Tages mit gleichem Typtag:

Typtagsprognose

3. Fortschreibung von Trends

Hat die Zeitreihe einen eindeutigen Trend, so kann dieser Trend fortgeschrieben oder – wenn die Fortsetzung nicht wahrscheinlich ist – auch bereinigt werden. Bei Lastdaten ist es sinnvoll, Ursachen von Lasttrends und die weitere Aussicht mit dem Kunden abzuklären. Bei Preisdaten wird der Trend oftmals als zufällig, d.h. als Teil der Volatilität, interpretiert.

Temperaturregression der TU-München

Schwieriger wird die Lastprognose, wenn die Last offensichtlich temperaturabhängig ist. Beim Gasverbrauch ist dies der typische Fall. Deshalb wurden von der gleichnamigen Universität die TU-München Profile entwickelt, die nach GasNZV für die Abwicklung von SLP-Gaskunden empfohlen werden. Diese Profile modellieren die Temperaturabhängigkeit der Tageslast in Abhängigkeit von einer gemittelten Temperatur, die auch Vortageswerte enthält mittels einer sogenannten Sigmoidfunktion. Dieses Modell ist auch für die Prognose temperaturabhängiger RLM-Kunden Gas oder für die Modellierung der Temperaturabhängigkeit des Fernwärmeabsatzes interessant.

1. Bestimmung der anwendbaren Temperatur

Temperaturabhängigen Lasten muss vor Erstellung einer Prognose eine sinnvolle Wetterstation zugeordnet werden. Für die Modellparametrierung benötigt man eine ausreichende Historie (i.a. 2 Jahre) von Wetterdaten.

Die TU-München Profile verwenden als anwendbare Temperatur den folgenden Mittelwert:

 T = \frac {T_t + 0,5 T_{t-1} + 0,25 T_{t-2} + 0,125 T_{t-3}}{1+0,5+0,25 + 0,125}

hierbei ist Tt die Tagestemperaturprognose für den Liefertag, Tt-1 bisTt-3 jeweils die Tagestemperaturen der Vortage.

 

Die Berücksichtigung der Vortagestemperaturen stellt die Berücksichtigung der Wärmespeicherfähigkeit von Gebäuden sicher. Die Gewichtungsfaktoren vor den Einzeltemperaturen sind Modellparameter, die für eine Individualprognose prinzipiell auch individuell optimal auf Basis von Vergangenheitswerten kalibriert werden können.

2. Das Sigmoid-Modell

Im Rahmen der TU-München-Profile ergibt sich die Tageslast L multiplikativ als:

L = h(T) * l_0

wobei der Faktor l0 temperaturunabhängig ist und entweder konstant ist oder nur vom Wochentag abhängt.

 

Die Temperaturabhängigkeit der Last wird durch die Signoidfunktion h beschrieben, dabei ist:

h(\theta) = \frac{A} {1+ (\frac{B}{\theta - \theta_0})^C}+D

Die unterschiedlichen TU-München-Profile unterscheiden sich durch unterschiedliche Wahl der Parameter und A, B, C und D und Wochentagsfaktoren zur Bestimmung von l0, jeweils mit der Basistemperatur:

\theta_0 = 40^\circ\text{C}

Für die Fortschreibung von SLP-Kunden werden insgesamt 62 konkrete Profile, d.h. konkrete Setzungen der Parameter A, B, C und D und gegebenenfalls von Wochentagsfaktoren vorgegeben und Branchen zugeordnet, aus denen der Ausspeisenetzbetreiber für sein Netzgebiet wählen kann. Hiermit kann ein breites Spektrum von Temperaturabhängigkeit abgebildet werden. Hier die Werte der h-Funktion in Abhängigkeit von der Temperatur für einige Branchenprofile mit der Ausprägung 04 (siehe Leitfaden Abwicklung von Standardlastprofilen Gas):

 

Temperaturregression TU-München

Das durch die Signoidfunktion abgebildete grundsätzliche Prinzip ist, dass die Last auch für beliebig kalte Tage immer höchstens den maximal möglichen Wert erreichen kann, der durch die installierte Heizleistung vorgegeben ist:

\lim\limits_{\theta \to -\infty}{h(\theta)} = A + D

Die Basistemperatur wird mit 40 °C so hoch gesetzt, dass sie in unseren Breiten nicht erreicht werden kann. Die Sigmoidfunktion zeigt für warme Temperaturen den Grenzwert:

\lim\limits_{\theta \to \theta_0}{h(\theta)} = D

Die Parameter B und C kontrollieren die genaue Form der S-Kurve bei mittleren Temperaturen.

3. Parametrierung des Sigmoid-Modells

Sowohl der Ausspeisenetzbetreiber, der aus den pro Branche bis zu 5 Standardprofilen der TU-München das richtige auswählen muss, als auch der Energievertrieb, der einen temperaturabhängigen Großkunden oder den Fernwärmeabsatz mit freigewählten Methoden prognostizieren kann, stehen vor der Aufgabe die Parameter des Modells richtig zu wählen. Dies geschieht im Wesentlichen in beiden Fällen auf gleiche Weise.

 

Wie immer, wenn die Abhängigkeit der zu prognostizierenden Größe von anderen Parametern untersucht werden soll, visualisieren wir den Zusammenhang zunächst über ein Punktediagramm. Für einen temperaturabhängigen Lastgang könnte ein solches Punktediagramm wie folgt aussehen:

Temperaturabhängige Last

In diese Punktwolke muss nun eine Kurve eingepasst werden, die die Temperaturabhängigkeit der Last bestmöglich beschreibt. Hierzu verwenden wir die Methode der kleinsten Quadrate, d.h. die Parameter der Sigmoid-Funktion werden so gewählt, dass für die gemessenen Lastwerte L bei der Temperatur t die folgende Summe minimiert wird:

 \sum_t L(t) - h(t))^2

Ein Least-Square-Fit ist in statistischer Software (z.B. R) standardmäßig implementiert. Zweckmäßiger setzt man die Parameter eines optisch passenden TU-München Standardprofils als Startwerte (st), um Konvergenz und sinnvolle Rechenzeit zu erreichen. Mit den Werten (werte) der Punktwolke mit den Koordinaten Temperatur (temp) und Last (y) erhält man dann die genau optimalen Parameter in R über die Zeilen:

h ← function(a, b, c, d, t, t0){
(a/(1+ (b/(t-t0))^c)) + d
}
nls(y ~ h(a, b, c, d, temp, 40), start =st, data = werte)

Das Ergebnis sieht so aus:

Fit h-Funktion TU-München

Es ist sinnvoll den Rest y – konst * h(t) gegen die Temperatur zu plotten, dieser sollte keine Temperaturabhängigkeit mehr enthalten, andernfalls ist der Fit durch eine Sigmoidfunktion nicht adäquat.

 

Weiterhin sollte der Rest als Zeitreihe geplottet und auf weitere Muster und Strukturen geprüft werden.

Lineare Regression, Autoregression, ARIMA

Lineare Regression ist sicherlich eines der Arbeitspferde, wenn es um die Erstellung von Lastprognosen geht. Auch bei der Prognose von Preisen kommen lineare Regression und die verwandten autoregressiven Modelle oft zum Einsatz.

1. Lineare Regression

Bei einer linearen Regression wird eine abhängige Variable y über k unabhängige x-Variablen mit zugehörigen Konstanten α prognostiziert. Die zentrale Gleichung lautet dabei:

y_i  = \alpha_0 + \alpha_1\cdot  x_{1,i} + \cdots + \alpha_k \cdot x_{k,i} + e_i

dabei sind ei unkorrelierte Werte einer normalverteilten Zufallsvariable e mit Erwartungswert 0 und konstanter Varianz.

 

Um ein lineares Regressionsmodell zur Prognose von y aufzusetzen, müssen zunächst mögliche Kandidaten für die x-Variablen gefunden werden. Hierzu benötigt man Daten, die im Gegensatz zu y zum Prognosezeitpunkt bekannt sind und eine hohe Korrelation zu y besitzen.

 

Sind die x-Variablen gefunden, so bestimmt man die α-Konstanten wiederum durch die Methode der kleinsten Quadrate, minimiert wird:

\sum_i (y_i- \alpha_0 + \alpha_1\cdot  x_{1,i} + \cdots + \alpha_k \cdot x_{k,i})^2 = \sum_i e_i

Auch diese Kalibrierung bietet mathematische Software üblicherweise an, in R erhält man eine lineare Regression auf die Temperatur für die oben gezeigte temperaturabhängige Last mit:

fit ← lm(y ~ temp, data=werte)
summary(fit)

Das Ergebnis sieht so aus (nicht ganz so schön, wie die Sigmoid-Funktion der TU-München):

Lineare Regression

Nach der Kalibrierung sollten die Restterme ei gegen die Prognosevariablen x geplottet werden. Dieser Plot sollte keine Muster mehr erkennen lassen, sonst ist dies ein Hinweis auf nichtlineare Zusammenhänge zwischen y und den x-Variablen.

 

Eine Regression ist auch auf diskrete x-Variablen möglich, beispielsweise kann als unabhängige Variable ein Feiertagsindikator  verwendet werden, der den Wert 1 am Feiertag annimmt und 0 sonst.

 

Problematisch ist eine Regression auf x-Variablen, die untereinander stark korreliert sind. Die Korrelationsgleichung ist dann nicht eindeutig lösbar oder es ergeben sich unplausible Koeffizienten (negative Abhängigkeit, wo positive Abhängigkeit zu erwarten wäre).

2. AR- und ARIMA-Modelle

Eine kleine Abwandlung des vorher beschriebenen Modells ist die Prognose einer Variable y mit einer Regression auf Ihre historischen Werte:

y_i  = \alpha_0 + \alpha_1\cdot  y_{i-1} + \cdots + \alpha_k \cdot y_{i-k} + e_i

Weiterhin ist es oftmals sinnvoll, nicht eine Zeitreihe y zu prognostizieren, sondern stattdessen die Zeitreihe y‘ der Differenzen:

y'_i = y_i - y_{i-1}

Letztere hat oft bessere Eigenschaften und aus einer Prognose von y‘ lässt sich leicht eine von y erstellen. Die Differenzenbildung kann mehrfach erfolgen.

 

Eine besonders flexible Modellklasse bilden die sogenannten ARIMA-Modelle (autoregressive integrated moving average model). Sie modellieren den künftigen Wert von y‘ als Summe einer Regression auf vergangene Werte von y‘ und einem gewichteten Mittelwert der historischen Fehler e:

y'_i = c + \alpha_1 \cdot y'_{i-1} + \cdots + \alpha_p \cdot y'_{i-p} + \beta_1 \cdot e_{i-1} + \cdots + \beta_q \cdot e_{i-q} + e_i

Für die Kalibrierung eines solchen Modells müssen zunächst geeignete Werte für p und q und für die Anzahl der Differenzenbildungen d bestimmt werden. Danach können optimale Werte für die αs, βs und c durch die Methode der kleinsten Quadrate oder durch Maximum-Likelyhood bestimmt werden. Für die Bestimmung von p ist der oben gezeigte Autokorrelationsgraph hilfreich. Weiterhin wird in vielen Softwarepaketen eine automatische Kalibrierung von ARIMA-Modellen zur Verfügung gestellt.

 

Hier für die bereits oben gezeigten Regelenergiepreise eine Prognose des Folgewertes auf Basis der jeweils verfügbaren historischen Daten mit einem ARIMA-Modell:

Regelpreise ARIMA Forecast

 

Wie man sieht, stellt die Prognose von Regelpreisen durchaus eine Herausforderung dar. Die Prognoseabweichung bleibt im Maximum unter der Abweichung der einfachen Fortschreibung des letztgemessenen Wertes:

Regelpreise Einfache Fortschreibung

Ist die raffiniertere Prognose aber wirklich besser?

Messung der Prognosegüte

Sollen nur zwei Prognosemodelle für dieselbe Variable verglichen werden, so kann man die bereits zur Kalibrierung der Modelle verwendete quadratische Abweichung betrachten.

1. Kennzahlen zur Messung der Prognosegüte

Vergleicht man zwei Prognoseverfahren für y, so ist das Verfahren besser, für das die quadratische Abweichung von Prognose und Ist kleiner ist:

\sum_i (y_i - \hat{y}_i)^2

Für die gerade verglichenen Methoden zur Vorhersage der Regelpreise (ARIMA und einfache Fortschreibung) ergibt sich tatsächlich, dass das ARIMA-Modell geringfügig besser ist.

 

Als Kennzahl wird oft der mittlere quadratische Fehler (MSE, mean squared error) betrachtet:

\text{MSE} = \frac{\sum_i^n (y_i - \hat{y}_i)^2 }{n}

Die Wurzel hieraus ergibt RMSE, den Root Mean Squared Error.

 

Es kann auch einfach der Mittelwert der absoluten Abweichungen (MAE, Mean Absolute Error) betrachtet werden:

\text{MAE} = \frac{\sum_i^n \lvert y_i - \hat{y}_i \rvert}{n}

Für diese Kennzahl schlägt die einfache Fortschreibung das ARIMA-Modell.

 

Diese einfachen Kennzahlen hängen von der Einheiten und absoluten Größenordnung der zu prognostizierenden Variable ab und eignen sich somit nicht zur generellen Beurteilung von Prognosequalität. Als ein normiertes Fehlermaß schlagen Hyndman and Koehler vor, den Fehler eines Prognosemodells im Verhältnis zu dem Fehler einer einfachen Fortschreibung zu messen.

 

Die Prognosequalität von linearen Regressionsmodellen wird üblicherweise mit dem Bestimmtheitsmaß R2 oder dem adjustierten Bestimmtheitsmaß R̄gemessen.

2. Kalibrierungs- und Testdaten

Die Prognosequalität kann nur an Daten getestet werden, die nicht für die Kalibrierung des Modells verwendet wurden. Somit müssen bei Entwicklung eines Prognosemodells zunächst die verfügbaren Daten in Daten zur Kalibrierung und Testdaten aufgeteilt werden.

 

Für die Fortschreibung von Zeitreihen, insbesondere wenn die Daten eine Saisonalität beinhalten, bleibt meist nichts übrig als diese Aufteilung entlang der Zeitachse vorzunehmen. In die Prognose nachfolgender Zeiträume dürfen nur davorliegende Daten eingehen. Somit wird das Modell jeweils mit den Daten bis zum Zeitpunkt ti kalibriert und hiermit der Wert zum Zeitpunkt ti+1 vorhergesagt. Man erhält einen Prognosefehler für jedes i abgesehen von einem Zeitfenster am Anfang, dass als minimal angesehen wird, um eine Kalibrierung sinnvoll vornehmen zu können.

 

Soll ein Regressionsmodell oder eine Kalibrierung beispielsweise der Sigmoidfunktion getestet werden, so ist die zeitliche Abfolge der historischen Daten nicht relevant. Das Testset kann dann zufällig gewählt werden. Insbesondere ist das folgende Vorgehen möglich:

  • Wähle die Beobachtung i als Testmenge
  • Kalibriere das Modell aus allen Daten ohne die Beobachtung i
  • Werte den Prognosefehler i für die Beobachtung i aus
  • Ermittle den mittleren Fehler über alle möglichen i

3. Weitere Maßnahmen zur Beurteilung der Prognosequalität

Mathematische Kennzahlen zur Beurteilung der Prognosequalität haben oft Schwächen. Sie erkennen beispielsweise nicht, wenn der Zusammenhang zwischen der abhängigen, zu prognostizierenden Variable und den unabhängigen Variablen, die zur Prognose verwendet werden, nur in einem gewissen Zeitfenster gilt und danach zusammenbricht. Die bekannte Kennzahl R2 ist Null für eine lineare Regression, wenn der Zusammenhang zwischen den Variablen vorhanden aber nicht linear ist.

 

Somit ist es immer sinnvoll, für die Testdaten die Prognose gegen Ist zu plotten, um die Prognosequalität zu beurteilen. Ebenso sollte der Rest, d.h. die Abweichung des Forecasts vom Ist geplottet werden und mit Punkteplot auf noch vorhandene Abhängigkeiten von den unabhängigen Regressionsvariablen geprüft werden.

 

Idealerweise ist die Restzeitreihe White Noise, d.h. sie repräsentiert eine Zufallsvariable:

  • ohne Autokorrelation
  • mit Erwartungswert Null
  • mit konstanter Varianz

Ist der Erwartungswert der Restzeitreihe ungleich Null, so sollte der Erwartungswert der Prognose hinzugefügt werden. Ist die Restzeitreihe autokorreliert, so ist möglicherweise die Betrachtung einer Differenzzeitreihe (s.u) sinnvoll.

 

Verschiedene mathematische Transformationen sind hilfreich, wenn die Ursprungsdaten bzw. die Restzeitreihe autokorreliert sind oder eine nicht konstante Varianz zeigen. Hierzu zählen:

4. Wirtschaftliche Bewertung der Prognoseabweichung

Zu guter Letzt sollte bei der Beurteilung des Prognosefehlers auch immer die wirtschaftliche Relevanz in Betracht gezogen werden. Sie ist letztendlich die Messlatte dafür, ob sich eine Investion in die Verbesserung der Prognosequalität lohnt. Für die Tagesprognose ergeben sich die Kosten K aus dem Prognosefehler aus dem folgenden Skalarprodukt (Summenprodukt):

K = (P - I) \circ (\text{REBAP}- \text{EEX})

dabei ist:

P die Prognosezeitreihe
I die Istzeitreihe
EEX die Spotpreiszeitreihe der EEX
REBAP die Ausgleichsenergiepreiszeitreihe

Wird zuviel prognostiziert, so wird die Überschussmenge am Spotmarkt gekauft (Aufwand, negatives Vorzeichen) und am Ausgleichsenergiemarkt wieder verkauft (Erlöse, positives Vorzeichen). Wird zuwenig prognostiziert, ist es umgekehrt. Für Einspeisung gilt die entsprechende Gleichung mit negativem Vorzeichen.

 

Geht man davon aus, dass sowohl die Prognoseabweichung P – I im Mittelwert Null ist (dies sollte der Anspruch sein) als auch die Abweichung zwischen Spot- und Ausgleichsenergiepreisen REBAP – EEX (Arbitragefreiheit), so sind die erwarteten Kosten K:

K = \text{COV}(P - I,\text{REBAP}- \text{EEX})

Die Korrelation zwischen Prognoseabweichung und dieser Preisdifferenz ist für manche Marktteilnehmer (insbesondere bei der Prognose von Windeinspeisung) immer positiv, in diesem Fall entstehen aus der Prognoseabweichung systematisch Kosten und nicht nur Ergebnisrisiken.

Auch bei einer Prognose von Regelpreisen zählt letztendlich die Optimierung der Erlöse. Danach müssen die Prognoseparameter auch kalibriert werden.

Ausblick und weiterführende Links

Eine ausführliche Einführung in das Thema Forecasting bietet das Onlinebuch zum Thema Forecasting von Rob J. Hyndman und George Athanasopoulos, von dem dieser Artikel viel Inspiration erhalten hat. Von Hyndman wurde auch eine Vielzahl von Forecastverfahren und zugehörigen automatischen Kalibrierungen in R bereitgestellt. Als weitere für die Energiewirtschaft wichtige Tools und Verfahren findet man in dem Buch:

Ein sehr zentrales Thema ist in der Energiewirtschaft weiterhin die Zerlegung von Zeitreihen in Trend und Saisonalität. Oftmals – wie bei HPFC-Modellen – werden generelle Preisniveaus aus Terminpreisen entnommen, während die Tages- und Wochenstruktur aus historischen Daten extrahiert werden sollen. Auch hier bietet das erwähnte Onlinebuch eine kleine Einführung, die meist nicht ausreichen wird. Weiter führt der Artikel STL: A Seasonal-Trend Decomposition Procedure Based on Loess von Cleveland, Rae und Terpenning. Eine Adaption der dort entwickelten Ideen ist der HPFC-Artikel.

 

Gerade bei der Prognose temperaturabhängiger Lasten wie Gas und Fernwärme besteht typischerweise das Problem, dass die unabhängigen Variablen, mit deren Hilfe die Last prognostiziert werden soll, untereinander hoch korreliert sind (Temperatur, Vortagestemperatur, Vortagesmenge, Globalstrahlung …). Dies führt die klassische multilineare Regression schnell an die Grenzen. Sichtbar relevante zusätzliche Variablen werden als irrelevant aussortiert. Ein möglicher Ansatz sind hier dimensionsreduzierende Verfahren wie die Hauptkomponentenanalyse (PCA). Viele Artikel zur Anwendung solcher Verfahren findet man bei R-Bloggers.

 

Clusteranalyse: Lastprognose im Smart-Meter-Zeitalter

von Marianne Diem, Februar 2017

Clusteranalyse von Zeitreihen

Der Smart-Meter-Rollout wird in Kürze Ist-Lastzeitreihen für nahezu alle Kunden zur Verfügung stellen. Im gleichen Zuge steigen die Handlungsmöglichkeiten im Energievertrieb, die Prognosegüte zu verbessern und verbrauchsspezifische Preise und Tarife zu stellen. Clusteranalysen sind mathematische Verfahren zur Klasterung von Lastgängen eines Absatzportfolios. Dabei können sowohl ähnliche Verläufe innerhalb einer Zeitreihe (Typtage) wie auch Ähnlichkeiten zwischen Lastgängen (Kunden mit ähnlichem Verbrauchsmuster) gesucht werden.

Lastprognosen im Lichte von Smart Meter

Das Lastverhalten von Kunden- und Kundengruppen richtig zu prognostizieren und richtig zu bepreisen, ist bestimmend für die Wirtschaftlichkeit des Energievertriebs. Es ist somit eine der Kernaufgaben und notgedrungen auch der Kernkompetenzen der Energiewirtschaft.

 

Bislang wurde dem Energievertrieb diese Aufgabe im Massenkundengeschäft durch verbindliche Standardlastprofile stark erleichtert. Durch Smart Metering werden in Kürze Ist-Lastzeitreihen für nahezu alle Kunden zur Verfügung stehen. Auch eine Anpassung der Bilanzierungsregeln ist auf dem Weg. Hiermit bieten sich für Lastprognose und Bepreisung im Massengeschäft völlig neue Voraussetzungen.

 

Nichtsdestoweniger können die arbeitsintensiven Verfahrensweisen des Großkundengeschäfts nicht eins zu eins auf das Massengeschäft übertragen werden. Einzelprognosen und Einzelanalysen von Lastgängen sind im Massengeschäft nicht wirtschaftlich. Segmentierungen des Lastverhaltens in geeignete Kundenklaster werden erforderlich sein.

 

Die Gruppierung des Kundenportfolios nach typischem Lastverhalten in Verbindung mit geeignet erhobenen mit dem Lastverhalten korrespondierenden Kundeneigenschaften kann zudem einen entscheidenden Informationsgewinn für den Vertrieb darstellen und ist Basis für die Tarifentwicklung.

 

Der Vertrieb steht somit vor den Aufgaben:

  • Lastprofile seines Absatzportfolios nach Ähnlichkeit zu klastern und typischen Profilen zuzuordnen
  • vertrieblich ermittelbare Kriterien zu eruieren, aus denen die Klasterzugehörigkeit / das typische Lastverhalten abgeleitet werden kann

Der vorliegende Artikel beschäftigt sich mit dem ersten Teil der Aufgabe.

Methodisches Vorgehen bei einer Clusteranalyse

Die Clusteranalyse bietet die Möglichkeit, eine Zeitreihen in „Schubladen“ mit ähnlichem Verlauf zu sortieren, ohne dabei inhaltliche a priori-Annahmen zu treffen. Somit können mit einer Clusteranalyse:

  • Lastgänge eines Portfolios in Cluster sortiert werden, die jeweils Lastgänge ähnlicher Struktur enthalten
  • Tagesverläufe eines Lastgangs oder einer Preiszeitreihe in Klassen mit ähnlichem Verlauf sortiert werden (sogenannte Typtage)

Es gibt viele Verfahren zur Clusteranalyse. In diesem Artikel konzentrieren wir uns auf klassische sogenannte hierarchische Verfahren. Die Ähnlichkeitssuche mit einem solchen Verfahren erfordert im Allgemeinen mehrere Schritte:

  • Zunächst werden meist über eine geeignete Normierung und Bereinigung Effekte eliminiert, die im Rahmen der Clusteranalyse als nicht relevant erachtet werden, aber zu einer Klassifizierung von Lastgängen als unterschiedlich führen würden.
  • In einem zweiten Schritt wird auf den normierten Zeitreihen eine Distanzfunktion definiert, mit deren Hilfe bestimmt werden kann, welche Zeitreihen nahe beieinander liegen (also ähnlich sind) und welche nicht.
  • In einem iterativen Verfahren werden nun nahe beieinanderliegende Zeitreihen herausgefiltert und Cluster („Anhäufungen“) von Zeitreihen identifiziert

Einige Clusterverfahren ermöglichen eine freie Wahl der Distanzfunktion. Übliche solche Funktionen stellen wir in einem folgenden Kapitel kurz vor.

 

Die Anzahl der gewünschten Cluster kann vorab gesetzt oder durch Zielfunktionen ermittelt werden. Ziel ist dabei nach Möglichkeit systematisch unterschiedliche Zeitreihen zu separieren und „zufällige“ Abweichungen bei der Clusterung zu ignorieren. Das bedeutet, dass der Abbruch optimalerweise an einer Stelle erfolgt, wo eine weitere Zusammenführung von Clustern zu einem großen Anwachsen der Distanzen innerhalb des Clusters führt.

Bereinigung und Normierung der Zeitreihen

Um Zeitreihen sinnvoll vergleichen zu können, werden oftmals für die Untersuchung nicht relevante Unterschiede vorab bereinigt. Teilweise werden die Zeitreihen auch vorher geeignet vereinfacht, um eine bessere Rechenzeit und ein stabileres Ergebnis auf großen Datenmengen zu erreichen.

1. Fehlwerte und Ausreißer

Zunächst einmal ist es sinnvoll, Ausreißer und Fehldaten in historischen Zeitreihen mit Ersatzwertverfahren zu bereinigen, da sie zur Verfälschung der Ergebnisse führen können.

2. Normierung auf gleiche Gesamtarbeit

In der Energiewirtschaft ist es weiterhin oft sinnvoll, zu vergleichende Zeitreihen auf gleichen Jahresabsatz zu normieren. Das heißt, statt einer stündlichen Zeitreihen (zi)i betrachtet man die entsprechende normierte Zeitreihe (zNi)i mit

z^N_i  = \frac {z_i}{\sum_j {z_j}}

Diese Normierung auf Jahresabsatz 1 erfolgt wenn zweckmäßig zuletzt, nachdem alle anderen unerwünschten Effekte bereinigt wurden.

3. Trendbereinigung

Auch Trends in den Daten sollte man möglicherweise bereinigen. Hier zum Beispiel ein Windeinspeiselastgang mit deutlichen Zubaueffekten:

Windeinspeisung - Lastgang mit Trend
Offshore Windeinspeisung 2015 – DE-AT-LU – Daten ENTSO-E

Typischerweise wäre man eher an einem typischen Profil für eine konstante installierte Leistung interessiert. Eine erste Idee zur Bereinigung ist, die Zeitreihe durch den linearen Trend (rote Linie in obiger Graphik) zu teilen. Allerdings führt dies nicht zu einem befriedigenden Ergebnis:

Wind bereinigt um lin. Trend

Möchte man keine weiteren Daten hinzuziehen, so lässt sich die verfügbare Leistung zum jeweiligen Zeitpunkt gut als ein gleitendes Maximum (etwas geglättet) darstellen:

Windeinspeisung - gleitendes Maximum

Normierung der Zeitreihe mit diesem gleitenden Maximum ergibt ein befriedigendes Ergebnis:

Windeinspeisung-bereinigt um gleitendes Max

4. Zufällige „Störungen“ des Lastverhaltens

Klassische Methoden der Clusteranalyse liefern kein sinnvolles und stabiles Ergebnis, wenn die systematischen Strukturen, die man zu finden hofft, stark von zufälligen Effekten überlagert werden. Beispielhaft für dieses Problem zeigen wir weiter unten eine Clusteranalyse der Spotpreise.

 

Daher ist es zweckmäßig, bei der Analyse eines Kundenportfolios die zu untersuchenden Lastgänge nach Möglichkeit von vornherein auf ihre systematische Struktur zu reduzieren. Hierzu kann man für jeden Lastgang die folgenden reduzierten Datensätze betrachten:

  • die typische Woche aus durchschnittlichem Montags-, Dienstags-, …, Sonntags-Lastverlauf
  • ein für diesen Lastgang generiertes Quasi-Standardlastprofil

Für ein solches Quasi-Standardlastprofil werden Typtage (z.B. Mo, Di-Do, Fr, Sa, Sonn- und Feiertag) und Saisons definiert (z.B. Sommer, Winter, Übergangszeit). Für jede Kombination aus Typtag und Saison erhält man einen typischen Verlauf durch Mittlung der Verläufe aller Tage, die in diesen Typtag und diese Saison fallen.

 

5. Anforderungen an die Normierung

Die Normierung dient zweckmäßigerweise auch der Vereinfachung der Daten und erhöht somit die Performance der Clusteralgorithmen. Sie darf jedoch keine Effekte bereinigen, die in Wirklichkeit kostenbestimmend sind und somit gerade herausgefiltert werden sollen.

 

Vielfach werden in Clusteranalysen beispielsweise Abstandsmaße definiert, die Zeitreihen als gleich klassifizieren, die sich nur durch eine zeitliche Verschiebung unterscheiden. Dies ist für die Energiewirtschaft nicht zweckmäßig, da gerade die zeitliche Verteilung der Last (Maximallast nachts oder tagsüber, werktags oder am Wochenende) entscheidend und kostenbestimmend ist.

Definition von Distanzmaßen

Eine Zeitreihe der Länge n wird als ein Punkt im Rn interpretiert. Eine stündliche Zeitreihe über ein Jahr entspricht dann beispielsweise einem Punkt im R8760. Ein Distanzmaß für Zeitreihen einer vorgegebenen Länge n ist somit ein Distanzmaß (oder eine Distanzfunktion) des Rn. Hierfür gibt es mehrere naheliegende Möglichkeiten:

 

Ein erstes naheliegendes Distanzmaß ist die euklidische Metrik. Der Abstand zwischen zwei Zeitreihen p, q der Länge n (entspricht zwei Punkten im Rn) ist dann:

\text{dist}(p,q) = \sqrt{\sum_{i =1}^{n} (p_i-q_i)^2}

 

Eine Verallgemeinerung hiervon sind die sogenannten Minkowski-Metriken oder Minkowski-Distanzen, die für jedes feste k ≥ 1 wie folgt definiert sind:

\text{dist}(p,q) = \sqrt[k]{\sum_{i =1}^{n} |p_i-q_i|^k}

 

Ein sinnvolles Maß für die Ähnlichkeit von Zeitreihen ist offensichtlich auch ihre Korrelation. Der empirische Korrelationskoeffizient für zwei Zeitreihen p, q ergibt sich als

\rho(p,q) = \frac{\sum_{i=1}^{n} {(p_i - \bar{p})\cdot (q_i -\bar{q})}}{\sqrt{\sum_{i=1}^{n}{(p_i - \bar{p})^2}\cdot \sum_{i=1}^{n}{(q_i - \bar{q})^2}}} \; ,

wobei

\bar{p} = \frac{1}{n} \cdot \sum_{i=1}^{n} {p_i} und

\bar{q} = \frac{1}{n} \cdot \sum_{i=1}^{n} {q_i} ist.

Die Idee ist nun, dass hoch korrelierte Zeitreihen einen kleinen Abstand haben und niedrig korrelierte einen großen. Explizit soll der Abstand von zwei Zeitreihen mit Korrelation 1 gleich 0 sein und der Abstand von zwei Zeitreihen mit Korrelation -1 soll maximal unter allen möglichen Abständen sein. Ein mögliches Distanzmaß mit diesen Anforderungen ist:

\text{dist}(p,q) = \arccos( \rho(p,q) )

Hiermit ist dann also

\rho(p,q) = \cos(\text{dist}(p,q)).

Die Distanz kann hier als Winkel interpretiert werden, nämlich als Winkel zwischen den durch die Punkte

(p_1 - \bar{p}, p_2 - \bar{p}, \ldots, p_n - \bar{p})

und

(q_1 - \bar{q}, q_2 - \bar{q}, \ldots, q_n - \bar{q})

definierten Ursprungsvektoren des Rn.

 

Eine einfachere Variante für ein Distanzmaß mit den genannten Anforderungen ist:

\text{dist}(p,q) = 1 - \rho(p,q)

 

Wir verwenden im Folgenden als Distanzmaß die euklidische Metrik.

Hierarchische Clusterbildung mit Fusionierungsalgorithmen

Es gibt verschiedene Verfahren, aus betrachteten (Teil-)Zeitreihen Cluster zu bilden. Verbreitet sind außer den hier diskutierten hierarchischen Verfahren z.B. auch der k-Means-Algorithmus. Ein Vorteil der hierarchischen Verfahren ist, dass sie eine freie Wahl der Metrik ermöglichen. Es wird unterschieden zwischen:

  • divisiven Clusterverfahren, in denen zunächst alle Objekte als zu einem Cluster gehörig betrachtet und dann schrittweise die bereits gebildeten Cluster in immer kleinere Cluster aufgeteilt werden, bis jeder Cluster nur noch aus einem Objekt besteht
  • agglomerativen Clusterverfahren, in denen zunächst jedes Objekt einen Cluster bildet und dann schrittweise die bereits gebildeten Cluster zu immer größeren zusammengefasst werden, bis alle Objekte zu einem Cluster gehören

Agglomerative hierarchische Clusterverfahren haben die größte Verbreitung. Sie starten mit dem Zustand, dass jedes Objekt (jeder Lastgang) sein eigenes Cluster ist. Schrittweise werden immer die Cluster mit der kleinsten Distanz zueinander zusammengeführt, bis alle Cluster vereinigt sind. Die optimale Anzahl von Clustern wird innerhalb des Prozesses dann über ein sinnvolles Abbruchskriterium bestimmt. Hierzu dient unter anderem das sogenannte Dendrogram.

 

Für die Messung der Distanz zwischen Clustern  und das daraus abgeleitete Fusionskriterium gibt es unterschiedliche Möglichkeiten. Einige davon stellen wir im Folgenden vor.

1. Single Linkage

Beim Single-Linkage ist die Distanz zwischen zwei Clustern A und B der Abstand zwischen den beiden Objekten a, b der beiden Cluster, die den geringsten Abstand voneinander haben:

dist(A,B) = \min_{a\in A, b\in B} {dist(a,b)}

Clusteranalyse - Single Linkage

2. Complete Linkage

Beim Complete-Linkage ist die Distanz zwischen zwei Clustern A und B der Abstand zwischen den beiden Objekten a, b der beiden Cluster, die den größten Abstand voneinander haben:

dist(A,B) = \max_{a\in A, b\in B} {dist(a,b)}

Clusteranalyse - Complete Linkage

3. Average Linkage

Beim Average Linkage wird der Mittelwert der Distanzen aller Verbindungen von A nach B gebildet:

dist(A,B) = \frac{1}{ \#A \cdot \#B} \cdot \sum_{a\in A, b\in B} {dist(a,b)}

Dabei sind

\#A,\#B die Anzahl der Objekte in A und B

4. Centroid – Method

Bei der Centroid- Method wird der Abstand der Zentren der beiden Gruppen gemessen:

dist(A,B) = dist(\bar {a},\bar{b})

Dabei sind

\bar{a}, \bar{b} die Schwerpunkte der beiden Cluster bezogen auf die Metrik.

Clusteranalyse - Centroid Method

Auswertung mit dem Dendrogramm

Der Algorithmus der Clusterbildung startet nun mit dem Zustand, dass jedes Objekt / jede Zeitreihe ihr eigenes Cluster bildet:

Clusteranalyse - hierarchisches Verfahren

 

Dann werden in jedem Schritt die beiden Cluster fusioniert, die nach dem gewählten Fusionierungsalgorithmus (siehe oben) die geringste Distanz voneinander haben. Dies kann man solange fortsetzen, bis alle Objekte in einem Cluster sind. Die sukzessive Clusterfusion und die immer größeren Distanzen zwischen fusionierten Clustern lassen sich in einem Dendrogramm darstellen:

 

Clusteranalyse Dendrogramm

Auf der y-Achse ist die Distanz der zusammengeführten Cluster abgebildet. Auf der x-Achse sind die Ausgangsobjekte. Die Joche, die unterschiedliche Cluster verbinden, befinden sich jeweils auf der Höhe der Cluster-Distanz. Man sieht, dass die Cluster zunächst sehr nahe beieinander liegen. Am Ende werden zwei weit voneinander entfernte Cluster verbunden. Eine gute Abbruchstelle liegt an einer Stelle, mit langen senkrechten Achsen. Hier vergrößert sich der Abstand massiv, bevor eine weitere Fusion von Clustern möglich wird.

 

Wie ein Blick auf die ursprüngliche Punktegraphik nahelegt, lässt sich die Punktwolke gut durch zwei Cluster beschreiben.

Wie erfolgt nun die Anwendung auf Kundenportfolien?

Die Durchführung einer solchen Clusteranalyse auf einer geeignet normierten Datenbasis von Lastgängen ist sehr einfach. Die gängigen Verfahren:

  • agglomerative und divisive hierarchische Verfahren
  • k-Means
  • Density-Methoden
  • usw.

sind in den üblichen Statistik-Softwarepaketen (Matlab, R …) mit vielen Varianten und auch unterschiedlichen Metriken implementiert.

 

Betrachtet man z.B. den historischen Verlauf der Spotpreise über die Jahre 2015-2016 als Tabelle mit Tagen als Zeilen und Stunden als Spalten, so erhält man eine Clusterung der Tagesverläufe mit einem agglomerativen, hierarchischen Verfahren bei R über die zwei Zeilen:

library(cluster)
p1 ← agnes(spotpreise, metric = „euclidean“, stand = FALSE, method = „average“)

 

Einen Dendrogramm-Plot erhält man über die weitere Zeile:

plot(p1)

 

Hier ist er:

Clusteranalyse Spotpreise

Mit wenigen Zeilen lassen sich die in jedem Cluster enthaltenen Datensätze auswerten. Allerdings erhält man dabei – wie bereits in obigem Abschnitt zu stochastischen Störungen erwähnt  – nicht unbedingt ein brauchbares Ergebnis. Dies zeigt sich schon bei der Anzahl der Elemente pro Cluster

groups.2 = cutree(p1,2) ## erste 2 Cluster
table(groups.2) ## Anzahl Elemente anzeigen

Antwort:
groups.2
1    2
717    14

 

Für 20 Gruppen sieht die Gruppenverteilung wie folgt aus:

groups.20
1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19  20
22  2  6  446  104  2  7  33  86  2  2  1  2  1  5  4  1  3  1  1

 

Ein agglomeratives Verfahren findet bei solchen Daten auf jeder Stufe Ausreißer, die in eigene Klassen aussortiert werden und sortiert den Rest im Wesentlichen in Rest. Bei einem divisiven Verfahren sieht das Dendrogramm auf ersten Blick besser aus, es entstehen jedoch trotzdem keine sinnvollen Klassen.

Fazit und Ausblick

Wie bereits oben erwähnt, sind Zeitreihen mit hohem stochastischen Anteil für eine Analyse mit klassischen Clusterverfahren nicht geeignet. Somit sind bei den beschriebenen klassischen Verfahren die vorgelagerten Schritten zur Normierung und Vereinfachung von entscheidender Bedeutung. Auch Überlegungen zur Wahl des Clusterverfahrens und die Wahl der Metrik sind wichtig, um ein aussagekräftiges Ergebnis zu erhalten.

 

Ein gegenüber stochastischen Störungen robusteres Verfahren sind die sogenannten selbstorganisierenden Karten. Sie beruhen auf ähnlichen geometrischen Ideen, sind aber ein iterativer und selbstlernender Algorithmus der dem Machine-Learning zuzurechnen ist. Selbstorganisierende Karten verhalten sich gegenüber Störungen und Datenfehlern relativ robust. Auch dieser Algorithmus ist in mathematischer Software verfügbar und möglicherweise ebenfalls einmal einen Artikel wert.

 

Um tatsächlich Kunden Clustern zuzuordnen und Produkte Cluster-abhängig zu gestalten, sind weiterhin Kundeninformationen erforderlich, die möglichst von vornherein zum Zeitpunkt des Vertragsabschlusses oder bereits für die Kundenansprache eine Clusterzuordnung ermöglichen. Aus einer stichprobenbasierte Erhebung von Kundendaten z.B. über Umfragen in Kombination mit einer Clusteranalyse des Lastverhaltens kann ermittelt werden, welche Kundeneigenschaften tatsächlich das Lastverhalten prägen.

 

 

 

Marktdesign der Energiewirtschaft

von Marianne Diem, September 2016
Marktdesign-der-regulierten-Energiewirtschaft

Die Novellierung des Energiewirtschaftsgesetzes von 1998 änderte die Rahmenbedingungen der Energiewirtschaft grundlegend. Im Folgenden werden die zentralen Mechanismen dieses lange als „Neue Welt der Energiewirtschaft“ bezeichneten Marktdesigns dargestellt.

Ziel und Herausforderung des 1998 in seinen Grundzügen geschaffenen und seither weiterentwickelten Marktdesigns ist es, einerseits durch Wettbewerb für marktgerechte Preise zu sorgen, andererseits die für Versorgungssicherheit und Systemstabilität erforderliche Koordination von Erzeugung, Verbrauch und Netz über Marktmechanismen zu erreichen. Dies geschieht im Wesentlichen durch die folgenden Mechanismen:

Die Darstellung dieser Mechanismen erfolgt im Wesentlichen am Beispiel der Stromwirtschaft. Auf Besonderheiten der Gaswirtschaft wird bei Gelegenheit hingewiesen.

Eine Herausforderung für das derzeitige Marktdesign stellt die massive Einspeisung Erneuerbarer Energien dar. Hierauf gehen wir am Ende ein.

Marktrollen der Energiewirtschaft

Das wesentliche Prinzip des Marktdesigns der regulierten Energiewirtschaft ist die Trennung von Energieerzeugung, Energiehandel und Energievertrieb einerseits und dem Netzbetrieb andererseits. Wir beginnen somit zunächst mit den Marktrollen der regulierten Energiewirtschaft.

1. Der Übertragungsnetzbetreiber (ÜNB)

Übertragungsnetzbetreiber betreiben Übertragungs- bzw. Transportnetze mit Drehstrom-Hochspannungsübertragung mit einer europaweiten Netzfrequenz von 50 Hz. Der Übertragungsnetzbetreiber ist zuständig für die Systemsicherheit. Die hiermit verbundenen Aufgaben werden in den folgenden Kapiteln dargestellt.

In Deutschland gibt es vier Übertragungsnetzbetreiber:

  • Tennet TSO
  • 50Hertz Transmission
  • Amprion
  • TransnetBW

Marktgebiet Regelzonen

2. Der Marktgebietsverantwortliche (MGV)

Der Marktgebietsverantwortliche eines Gas-Marktgebietes hat ähnliche Aufgaben wie der Übertragungsnetzbetreiber für ein Strom-Übertragungsnetz. Das von ihm verantwortete Marktgebiet ist ein Zusammenschluss von Fernleitungsnetzen zu einer Handelszone, in der gleiche Gas-Handelspreise gelten. In Deutschland gibt es zwei Marktgebietsverantwortliche:

  • Gaspool und
  • NetConnect

marktdesign-marktgebiete

3. Der Verteilnetzbetreiber (VNB)

Der Verteilnetzbetreiber ist ein Unternehmen, das Strom- bzw. Gasnetze zur Verteilung an Endverbraucher betreibt. Er ist verantwortlich für die Durchleitung und Verteilung von Elektrizität oder Gas sowie für den Betrieb, die Wartung und den Ausbau seines Netzes. Hierfür erhält er von den Endverbrauchern Netznutzungsentgelte.

Sofern der Netzbetreiber mit diesen Aufgaben nicht andere Parteien betreut hat, ist er ebenfalls verantwortlich für:

  • die Ablesung von Geräten, welche an einer Messlokation zur Ermittlung und Übermittlung von Messwerten notwendig sind
  • den Einbau, den Betrieb und die Wartung von Geräten, die an der Messlokation für die Ermittlung und Übermittlung von Messwerten notwendig sind

Verteilnetze werden oftmals von Stadtwerken betrieben. In Deutschland gibt es 867 Stromnetzverteiler und 700 Gasnetzbetreiber.

4. Der Lieferant (LF)

Der Lieferant ist verantwortlich für die Belieferung von Marktlokationen, die Energie verbrauchen und die Abnahme der Energie von Marktlokationen, die Energie erzeugen. Lieferanten sind die Vertragspartner für den Endkunden.

Lieferanten müssen Verträge mit  den Verteilnetzbetreibern abschließen, aus deren Netzen Energie entnommen oder in deren Netze Energie eingespeist werden soll (Lieferantenrahmenvertrag). Der Lieferantenrahmenvertrag regelt den Zugang zum gesamten Elektrizitätsversorgungsnetz.

5. Der Bilanzkreisverantwortliche (BKV)

Bilanzkreise sind das Kernstück des Marktdesigns der regulierten Energiewirtschaft. Über sie wird erreicht, dass Strom und Gas einerseits wie Wertpapiere gehandelt werden können andererseits trotzdem sichergestellt werden kann, dass Einspeisung und Abnahme im Netz übereinstimmen und die Netzstabilität gewahrt bleibt. Die Funktionsweise von Bilanzkreisen und die Verantwortung des Bilanzkreisverantwortlichen werden im nächsten Kapitel erklärt.

Bilanzkreise und Bilanzkreismanagement

Ein Bilanzkreis ist ein virtuelles Energiemengenkonto für Strom und Gas. Der Bilanzkreis verbindet die virtuelle Welt des Strom- und Gashandels mit der physischen Welt der Energielieferung und der Netzstabilität. Über Bilanzkreise wird sichergestellt, dass nur genau die Energie verkauft oder geliefert wird, die zur gleichen Zeit produziert wird und dass jeder Energielieferant seinen Absatz auch exakt an den Energiemärkten oder über eigene Erzeugung beschafft hat.

Regulatorische Grundlagen des Bilanzkreismanagements sind das EnWG, die Netzzugangsverordnung Strom und Gas sowie der Leitfaden Marktprozesse für die Bilanzkreisabrechnung Strom und der Leitfaden Marktprozesse Bilanzkreismanagement Gas.

1. Bilanzkreiszuordnung

Lieferanten sind im Rahmen der Netzzugangsverträge (Lieferantenrahmenvertrag) verpflichtet, alle von ihnen versorgten Entnahme- und Einspeisepunkte einem Bilanzkreis der zugehörigen Regelzone zuzuordnen. Eine Neuzuordnung erfolgt regelmäßig, wenn ein Kunde seinen Lieferanten wechselt.

 

Marktdesign Bilanzkreis Zuordnung

Der Lieferant kann seinen Bilanzkreis als Bilanzkreisverantwortlicher (BKV) selbst beim ÜNB führen. Es sind aber auch vertragliche Regelungen möglich, nach denen die Zählpunkte des Lieferanten in einen sogenannten Unterbilanzkreis z.B. eines Vorlieferanten eingebracht werden. In diesem Fall übernimmt der Vorlieferant die Rolle des Bilanzkreisverantwortlichen.

2. Bilanzkreisausgleich der BKVs

Der Bilanzkreis ist Gegenstand eines Bilanzkreisvertrages zwischen BKV und ÜNB / MGV. Im Rahmen des Bilanzkreisvertrages ist der BKV dem ÜNB / MGV verpflichtet, seinen Bilanzkreis ausgeglichen zu halten.

Um dem ÜNB / MGV nachzuweisen, dass der eigene Bilanzkreis ausgeglichen ist, muss der BKV für alle seinem Bilanzkreis zugeordneten Einspeise- und Entnahmestellen täglich eine Lastprognose erstellen. Auf Basis der Prognose ist er verpflichtet, dem Übertragungsnetzbetreiber / Marktgebietsverantwortlichen in einem regulatorisch vorgegebenen Datenaustauschprozess täglich für den Folgetag auf viertelstündlicher Basis (Strom) bzw. im Allgemeinen auf Basis von Tageswerten (Gas) alle Entnahmen, Einspeisungen und Lieferungen von und an seinen Bilanzkreis zu melden. Energiehandelsgeschäfte stellen Lieferungen von Bilanzkreis an Bilanzkreis dar.

Energieverbraucher und Energieeinspeiser, deren historische Messwerte nur in Form eines Jahreswertes vorliegen, werden auf Basis sogenannte Standardlastprofile (hierzu später) berücksichtigt.

Marktdesign-Bilanzkreis-Ausgleich

3. Physischer Ausgleich durch den ÜNB

Durch die Zuweisung aller Ein- und Ausspeisepunkte einer Regelzone zu einem Bilanzkreis und durch den Bilanzkreisausgleich der BKVs ist sichergestellt, dass die Regelzone auf Basis von Vortagesprognosen ausgeglichen ist. Tatsächlich weichen jedoch sowohl die Abnahmen der Verbraucher als auch die Einspeisung der Kraftwerke (wir beschränken uns hier auf Strom) von der Vortagesprognose ab. Ursachen hierfür sind:

  • Flukturierende Einspeisungen von Wind-.und Solaranlagen
  • zufällige Verbrauchsschwankungen
  • Kraftwerksausfälle

Abweichungen zwischen Einspeisung und Verbrauch führen zu einem Abfallen oder Ansteigen der Netzfrequenz. Wird die Abweichung von der Sollfrequenz von 50 Hz zu groß, gehen Generatoren durch Sicherheitsabschaltung vom Netz und es kommt unter Umständen zu großräumigen Stromausfällen. Somit wird die Netzfrequenz durch den Übertragungsnetzbetreiber durch Abruf flexibler Abnehmer und Einspeiser stabilisiert. Die ÜNB betreiben hierfür eine Auktionsplattform für Regelleistung, auf der Kraftwerke und auch Abnehmer auf Abruf verfügbare Flexibilitäten anbieten können. Akute Ungleichgewichte zwischen Last und Erzeugung werden somit durch Abruf von Regelleistung auf Minuten- und sogar Sekundengranularität ausgeglichen.

 

Marktdesign-physischer-Ausgleich

 

4. Bilanzkreisabrechnung und Ausgleichsenergie

Die Summe aller Bilanzkreisabweichungen ergibt die Abweichung der Regelzone. Somit lassen sich Regelzonenabweichungen und deren Kosten verursachungsgerecht zuordnen. Dies geschieht in der Bilanzkreisabrechnung. Beteiligt sind auch hier wieder ÜNB und BKV. Jedem BKV wird in jeder Viertelstunde positive oder negative Ausgleichsenergie für die tatsächliche Abweichung der Mengenbilanz seines Bilanzkreises zugewiesen:

Marktdesign-Bilanzkreis-Abrechnung

Durch den Ausgleich der Regelzone entstehen dem ÜNB in jeder Viertelstunde spezifische Kosten oder Erlöse E. War die Regelzone in einer Viertelstunde überdeckt – d.h. es wurde mehr Energie eingespeist als abgenommen – so kann es sein, dass die Energie noch zu positiven Preisen abgenommen wurde und dem ÜNB Erlöse entstanden sind. Typischerweise entstehen jedoch in jeder Richtung Kosten. Die spezifischen Kosten oder Erlöse, die dem ÜNB pro MW Abweichung in einer gegebenen Viertelstunde entstanden sind, ergeben (in etwa) den Ausgleichsenergiepreis a, der nun allen Bilanzkreisverantwortlichen für ihre Bilanzkreisabweichung in Rechnung gestellt wird. Da die Summe der Abweichungen ABi aller Bilanzkreise Bi die Abweichung der Regelzone AR ergibt, geht diese Rechnung genau auf:

E = a \cdot A_R = a \cdot  \sum_i {A_{B_i }} = \sum_i {a \cdot A_{B_i}}

Die nachfolgende Graphik zeigt den Verlauf des viertelstündlichen Ausgleichsenergiepreises in €/MWh im Mai 2015 zusammen mit einer Ganglinie geordneter Preise (rot):

Marktdesign-Ausgleichsenergiepreise

50% der Preise liegen zwischen -24 €/MWh und +62 €/MWh. Der Preisverlauf zeigt deutlich, dass bei Überdeckung der Regelzone die Abnehmer in der Regel bezahlt werden müssen – teilweise mit sehr hohen Preisen. Der nachfolgende Streugraph mit Regressionslinie zeigt, dass Ausreißer der Ausgleichsenergiepreise nur zu einem geringen Teil mit dem Regelsaldo erklärt werden können:

Marktdesign-Streugraph-Ausgleichenergiepreise
Als Regressionsgleichung ergibt sich

f(x): y = - 0,8812 + 0,0902 \cdot x

 

5. Der Differenzbilanzkreis des Verteilnetzbetreibers

Nicht adressiert ist nach dem bisher Gesagten die Abweichung der Standardlastprofilkunden. Diese werden nur auf Basis eines standardisierten Profils prognostiziert und Istwerte liegen ebenfalls nur als Jahresmengen vor. Ihre tatsächliche Abweichung vom Standardlastprofil wird somit im Bilanzkreis des Lieferanten nicht sichtbar. Im Soll wie im Ist gibt es für den individuellen Abnehmer keine besseren Daten als das Standardlastprofil.

Messbar ist jedoch die aggregierte Abweichung dieser Kunden im Verteilnetz. Dem Bilanzkreis des Verteilnetzbetreibers wird diese Abweichung somit auch zugeordnet. Das bedeutet, dass die Abweichung aller Standardlastprofilkunden im Bilanzkreis der Lieferanten per definitionem Null ist. Im sogenannten Differenzbilanzkreis des Verteilnetzbetreibers erscheint als Bilanzabweichung die Differenz zwischen der tatsächlichen Last aus allen Standardlastprofilkunden abzüglich der von den Lieferanten gemeldeten und beschafften Standardlastprofile. (Wir beschränken uns in dieser Darstellung auf sogenannte synthetische Lastprofile.)

Die Istlast der SLP-Kunden in einem Verteilnetz ergibt sich dabei als die Gesamtlast im Netz abzüglich aller gemessenen Lasten.

6. Besonderheiten der Gaswirtschaft

Auch in der Gaswirtschaft werden Bilanzkreise geführt und der MGV sorgt durch den Mechanismus von Regelenergie und Ausgleichsenergie für die Systemsicherheit. Durch die Speicherfähigkeit des Gasnetzes gibt es jedoch hier mehr Spielräume für eine Abweichung zwischen Einspeisung und Bedarf. Somit erfolgt die Gasbilanzierung für alle bis auf sehr große Einspeise-  und Ausspeisestellen (z.B. Kraftwerke) nur auf Tagesbasis. Weiterhin wird auch für Abnahmestellen mit registrierender Leistungsmessung eine Toleranz für Abweichungen gewährt.

Dafür sind die Ausgleichsenergiepreise Gas unsymmetrisch, d.h. für eine Überdeckung des Bilanzkreises in einer gegebenen Viertelstunde wird grundsätzlich ein niedrigerer Ausgleichsenergiepreis vergütet als für eine Unterdeckung zur selben Viertelstunde. Dies führt zu Vorteilen bei der Zusammenführung von Bilanzkreisen als Unterbilanzkreise eines Rechnungsbilanzkreises. Hieraus resultiert das Geschäftsmodell der Bilanzkreiskooperation.

Weiterhin ist in der Gasbilanzierung eine Regelenergieumlage auf die allokierte Menge zu zahlen. Weitere Entgelte werden für die virtuelle Wandlung von H-Gas in L-Gas und umgekehrt berechnet (Konvertierungsentgelt). Insgesamt ist die Gasbilanzierung deutlich komplizierter als die Strombilanzierung.

7. Ergebnis

Mit dem Mechanismus des Bilanzkreismanagements ist somit erreicht, dass jeder Einspeiser oder Verbraucher und auch jede Lastabweichung einem Bilanzkreisverantwortlichen zugeordnet ist. Der Bilanzkreisverantwortliche trägt gegenüber dem ÜNB / MGV die Verantwortung, dass die erwartete Last der zugeordneten Zählpunkte nach bestem Wissen an den Handesmärkten glattgestellt wurde und übernimmt auch die finanzielle Verantwortung für die tatsächlichen Abweichungen.

Energiehandel auf Bilanzkreisebene

Auf dieser Basis können nun Strom und Gas virtuell zwischen Bilanzkreisen gehandelt und als Lieferung gebucht werden. Dies ist die Voraussetzung für den bilateralen Energiehandel und die Energiebörse. Die Fahrplananmeldung bzw. Nominierung der Handelskontrakte am Vortag der Lieferung an den ÜNB bzw den MGV im Rahmen des Bilanzkreismanagements gilt dabei im juristischen Sinne als Lieferung und Erfüllung der Kontrakte.

1. Die Standardkontrakte Base und Peak

Die wichtigsten Kontrakte im Energiehandel sind die Bandlieferungen Base und Peak. Bei einem Basekontrakt Strom oder Gas wird in jeder Viertelstunde des Lieferzeitraums dieselbe Nominalleistung geliefert.

Peakkontrakte gibt es nur im Stromhandel. Ein Peakkontrakt besteht in einer Bandlieferung Mo – Fr von 8:00 – 20:00 Uhr. Nicht-Peakzeiten werden auch als Offpeakzeiten bezeichnet. Eine Bandlieferung zu Offpeakzeiten, die sich als Differenz aus einer Baselieferung und einer Peaklieferung mit gleicher Leistung ergibt, heißt auch Offpeakkontrakt.

Wertneutraler-Hedge-Base-Peak-4Handelbare Lieferzeiträume für Base- und Peakkontrakte sind:

  • Year
  • Quarter
  • Month
  • Balance of Month (Restmonat)
  • Week
  • Weekend
  • Day

Im Gasmarkt werden zusätzlich die Saison-Kontrakte Sommer und Winter gehandelt. Eine Season beinhaltet entweder jeweils die Monate Oktober bis März (Winter-Season) oder jeweils die Monate April bis September (Sommer-Season). Die handelbare Nominalleistung beträgt in der Regel 1 MW. Der Preis wird in €/MWh auf den Cent genau quotiert.

Die genannten Kontrakte sind als Standardkontrakte für einen begrenzten Zeitraum in die Zukunft sehr liquide handelbar. Darüber hinaus werden auf den OTC-Märkten ebenfalls Preise gestellt. Jahreskontrakte werden im allgemeinen für die drei Folgejahre liquide gehandelt, Quartalskontrakte bis zu 6 Quartale in die Zukunft, Monatskontrakte bis zu 6 Monate in die Zukunft.

2. OTC-Handel versus Börsenhandel

80% des Energiehandels findet auf sogenannten OTC-Märkten statt. Der Rest wird über Energiebörsen abgewickelt. Die wichtigste Energiebörse ist die EEX. EEX-Terminkontrakte nennt man Futures. OTC-Terminkontrakte werden Forwards genannt.

OTC-Kontrakte werden bilateral zwischen zwei Marktteilnehmern abgeschlossen. Beide Parteien tragen somit auch das Kreditrisiko bei Ausfall des Kontrahenten. Zur Etablierung einer Handelsbeziehung wird in der Regel ein Rahmenvertrag abgeschlossen, in dem alle wesentlichen Rahmenbedingungen wie Zahlungsfristen, Netting, Prozess bei Ausfall eines Handelspartners usw. geregelt werden (siehe hierzu auch den Artikel Kreditrisiko im Energiehandel). Hierfür hat die European Federation of Energy Traders (EFET) einen Standardvertrag (EFET-Vertrag) entwickelt, über den der größte Teil des OTC-Handels abgewickelt wird. Base- und Peaklieferungen nach EFET resultieren in einer physischen Lieferung zum Vertragspreis (physische Lieferung heißt Fahrplananmeldung / Nominierung des Bilanzkreistransfers) und in einer Zahlung zum 20ten des Folgemonats. Zwischen Vertragsabschluss und Lieferungsbeginn fließen keine Zahlungen.

Die Kontrakte der EEX sehen ähnlich aus. Auch hier werden Base und Peakkontrakte für dieselben Lieferzeiträume gehandelt. Somit sind auch die OTC-Preisstellungen direkt mit Börsenpreisen vergleichbar.

Allerdings haben Börsenkontrakte durch Clearing und Margining abweichende Zahlungsströme. Kauft ein Energiehändler einen Future und verkauft einen Forward, so erhält er die Zahlung aus der Forwardlieferung zum 20ten des Folgemonats (grün), während aus dem Futuregeschäft während des gesamten Zeitraums zwischen Abschluss des Geschäftes und der physischen Lieferung im Liefermonat Zahlungsströme zu erwarten sind (blau), die aus der Preisveränderung des Futures (rot) bis zum Settlement vor Lieferung resultieren.

 

Zahlungsstroeme-Future-und-Forward

3. Preisbildung im laufenden Handel

OTC-Kontrakte werden zu einem sehr großen Teil über die Plattformen der etablierten Finanzbroker (ICAP, GFI, Tullett Prebon …) vermittelt. Die Preisbildung an solchen Plattformen entspricht der Preisbildung im laufenden Handel, wie sie auch auf Börsenplattformen erfolgt.

Jeder Marktteilnehmer kann während der Handelszeiten jederzeit limitierte Gebote einstellen. Diese werden in der Reihenfolge ihres Eingangs ausgeführt, sobald sich eine Gegenpartei findet, in deren Preisgrenze das Angebot liegt und den derzeit besten realisierbaren Preis darstellt. Nicht ausgeführte Gebote verbleiben im Orderbuch. Auf den Plattformen der Börse oder der Broker werden die derzeit besten Verkaufs- und Kaufsgebote dargestellt, die durch Klick realisiert werden können. Dies sieht so aus (Preise sind Beispielpreise):

Marktdesign-Handelsplattform

Unter Bid steht der beste erzielbare Preis für den Verkauf, links daneben die Menge, für die dieser Preis gilt. Unter Ask steht der beste erzielbare Preis für den Kauf – immer etwas höher als der zugehörige Bid-Preis. Rechts daneben steht die Menge, für die dieser Preis gilt. Unter Last steht der letzte gehandelte Preis für das Produkt.

An der EEX sind die Preise für alle Börsenteilnehmer erzielbar. Im OTC-Handel kann jeder Marktteilnehmer nur Preise erzielen, die von einem Marktteilnehmer gestellt wurden, mit dem eine Handelsbeziehung (EFET-Vertrag) besteht und der den Handel nicht wegen überschrittener Kreditlinien gesperrt hat. Nur solche Preise werden dem Marktteilnehmer dann auch auf den Brokerplattformen angezeigt.

Mit jedem Klick, alternativ auch durch telefonischen Abschluss, kommt ein Geschäft zustande und es realisiert sich ein Preis, der dann als Last angezeigt wird. Der Verlauf dieser Preise ist der untertägige Preisverlauf im laufenden Handel. Für dasselbe Produkt kann sich der Preis über Tage und Wochen erheblich ändern. Hier der Preisverlauf des Produktes Base 2016:

Marktdesign-Preisentwicklung-Base-2016

5. Die Stunden- und Viertelstundenauktion der Börse

Für den Absatz Gas ist im Allgemeinen die Beschaffung nur in Tagesgranularität erforderlich und die diskutierten Standardprodukte sind somit ausreichend. Beim Bilanzkreismanagement Strom ist dies nicht der Fall. Wie wir im Abschnitt Bilanzkreismanagement gesehen haben, muss ein Energielieferant seinen Absatz Strom am Vortag auf Viertelstundenbasis beschafft haben. Der Bilanzkreisverantwortliche benötigt somit einen Marktplatz für den stündlichen und viertelstündlichen Mengenausgleich. Diese Plattform bieten die Dayahead (Stunden) und die Intraday-Auktion (Viertelstunden) der EEX.

Die Stundenauktion der EEX findet täglich 12 Uhr statt. Gehandelt werden die 24 Stunden des Folgetages in 0,1 MW Granularität. Die Preise für Gebote müssen zwischen -500 €/MWh und 3.000 €/MWh liegen. Preise werden auf 0,1 €/MWh genau quotiert.

Die Viertelstundenauktion der EEX findet täglich 15 Uhr statt. Gehandelt werden die 96 Viertelstunden des Folgetages in 0,1 MW Granularität. Die Preise für Gebote müssen zwischen -3000 €/MWh und 3.000 €/MWh liegen. Preise werden auf 0,1 €/MWh genau quotiert.

Gebotsgestaltung und Preisfindung werden im Folgenden beispielhaft an der Stundenauktion demonstriert:

  • Ein Stadtwerk, dass die Restposition, die es nach Absicherung mit Base- und Peakprodukten in seinen Büchern hat, auf jeden Fall glattstellen muss, könnte hier ein Gebot der Art des 1. Gebots abgeben
  • ein Kraftwerk mit Grenzkosten von 40 €/MWh wird das 2. Gebot abgeben
  • eine Grundwasserpumpe, die nur bei Stromkosten unter 10 €/MWh laufen soll, das 3. Gebot

Marktdesign-Boersengebot

Auf Basis aller Gebote ermittelt die Börse für jede Stunde einen markträumenden Preis (Market Clearing Price MCP). Dies erfolgt durch Aggregation aller Gebote für jede Stunde, beispielhaft hier für Stunde 1:

Marktdesign-MCP

Die Aggregation der Gebote zeigt, dass für einen Preis zwischen – 500 und 10 €/MWh um 0,1 MW mehr Nachfrage als Angebot vorhanden ist, danach überwiegt das Angebot. Der markträumende Preis, bei dem Angebot und Nachfrage exakt gleich sind, liegt zwischen 10 und 10,1 €/MWh:

Marktdesign-Interpolation

Der Schnittpunkt mit der x-Achse zeigt an, bei welchem Preis Angebot und Nachfrage genau übereinstimmen. Die Börse ermittelt den markträumenden Preis auf 0,01 €/MWh genau. In diesem Beispiel läge er bei 10,02 €/MWh.

Spotpreise spiegeln die kurzfristige physische Situation an den Energiemärkten wieder und können sehr unterschiedlich ausfallen. Auch mit negativen Preisen muss man rechnen. Hier ein Sonntag im August 2016:

Marktdesign-Spotpreis

6. Vom Terminhandel zur Lieferung

Als resultierender Prozess ergeben sich somit für den Energieversorger, der seinen Bedarf an den Energiehandelsmärkten beschaffen muss, die folgenden Aufgaben:

Der Energielieferant muss für die Gesamtlast oder ein Vertriebsprodukt eine Bedarfsprognose erstellen:

Marktdesign-Bedarfsprognose

Diese muss mit Standardprodukten bestmöglich beschafft werden. Dazu muss die bestmögliche Absicherung in Standardprodukten ermittelt werden (siehe mengen- und wertneutraler Hedge):

Marktdesign-Optimaler-Hedge

Diese wird dann sukzessive am Terminmarkt beschafft. Siehe hierzu auch den Artikel Beschaffungsstrategien Strom und Gas. Es verbleibt eine Differenzmenge, die in der Spotauktion der Börse geschlossen wird (blau Kaufposition, braun Verkaufsposition):

Marktdesign-Spotposition

Zu guter Letzt wird die tatsächlich abgenommene Last von der Absatzprognose abweichen. Diese Differenz wird als Bilanzabweichung mit dem Übertragungsnetzbetreiber zu Ausgleichsenergiepreisen verrechnet:

Marktdesign-Bilanzabweichung

Hiermit ist die abgesetzte Menge auf den relevanten Märkten beschafft und bezahlt. Sie muss jedoch auch noch geliefert werden. Dies macht der Netzbetreiber.

Netz und Marktkommunikation

Regulatorische Grundlage für die mit der Netznutzung Strom und Gas verbundenen Prozesse sind die Netzzugangsverordnung Strom und Gas.

Voraussetzung für eine Belieferung ist jedoch zunächst, dass die Messstelle an das Netz angeschlossen ist.

1. Netzanschluss

Der Netzanschluss ist Gegenstand eines Vertrages zwischen dem Abnehmer bzw. Einspeiser und dem Netzbetreiber. In den meisten Fällen ist letzteres der Verteilnetzbetreiber und die Abnahme erfolgt auf der Niederspannungsebene. Kraftwerke können jedoch je nach Größe auf jeder Spannungsebene einspeisen und große Abnehmer können auf allen Spannungsebenen abnehmen.

Der Netzanschlussvertrag enthält unter anderem

  • die Anschrift der Anschlussstelle
  • die Eigentumsgrenze
  • die Spannungsebene und
  • die Netzanschlusskapazität.

Die Netzanschlusskapazität ist die elektrische Leistung, die der Netzbetreiber an dem Anschluss vorhält.

Bei Anschlüssen auf Niederspannungsebene gilt die Niederspannungsanschlussverordnung.

2. Netznutzung und Netznutzungsentgelte

Der Netzbetreiber bestimmt die zulässige Höhe der Netzentgelte auf Basis der Stromnetzentgeltverordnung, der Gasnetzentgeltverordnung und der Anreizregulierung (ARegV). Netzentgelte enthalten unter anderem:

  • Konzessionsabgaben an die Kommune
  • die KWK-Umlage nach dem KWK-Gesetz
  • Kosten vorgelagerter Netze
  • vermiedene Netzentgelte (Vergütung an dezentrale Erzeugung)
  • anrechenbare Kosten des Netzbetriebs

Die Struktur der Netzentgelte gliedert sich für jede Spannungsebene in Arbeitspreis und Leistungspreis, für nicht leistungsgemessene Abnahmestellen in Arbeitspreis und Grundpreis.

Arbeitspreise werden auf die dem Netz entnommene Arbeit in MWh (oder kWh) berechnet, d.h. die Rechnungshöhe hängt vom Strom- oder Gasverbrauch ab. Leistungspreise werden auf die entnommene Maximalleistung in MW berechnet. Zusätzlich werden Entgelte für Messung, Messstellenbetrieb und Abrechnung (defacto ebenfalls Grundpreise) erhoben.

Netzentgelte müssen durch die Bundesnetzagentur bzw. die zuständige Landesbehörde genehmigt werden.

Auf Basis der Bestandsliste und der ebenfalls im Allgemeinen vom Netzbetreiber gemessenen Verbrauchsdaten berechnet der Netzbetreiber transparent und diskriminierungsfrei Netznutzungsentgelte. Alle Netzbetreiber haben die jeweils gültige Höhe ihrer Netzentgelte als Preisblatt Strom und Preisblatt Gas im Internet zu veröffentlichen.

Kleinere Kunden erhalten im Allgemeinen von ihrem Lieferanten eine Rechnung, die die Netzentgelte enthält. Damit der Netzbetreiber die Netznutzungsentgelte von den Lieferanten einfordern kann, führt er eine Liste der derzeitigen Lieferanten aller Messstellen seines Netzgebietes. Mit diesen Lieferanten führt der Verteilnetzbetreiber monatlich einen Datenabgleich aus, bei dem eine Bestandsliste aller belieferten Messstellen des Lieferanten im Netz des Verteilnetzbetreibers ausgetauscht wird. Größere Energieverbraucher haben einen separaten Netznutzungsvertrag und stehen somit in direkter Geschäftsbeziehung mit dem Netzbetreiber.

Der Prozess der Abrechnung von Netznutzungsentgelten mit den Lieferanten erfolgt inklusive beidseitiger Prüfprozesse automatisiert auf Basis vorgegebener standardisierter elektronischer Formate.

Für die automatisierte Zuordnung von Netzentgelten im bundesweiten Vertrieb gibt es Dienstleister, die die jeweils aktuellen Netzentgelte aller Versorger in einer Datenbank bereitstellen und hierüber eine automatisierte Zuordnung von Messstellen und anwendbaren Netzentgelten anbieten.

3. Lieferantenwechselprozess und Ersatzversorgung

Bei jedem Wechsel des Lieferanten durch einen Stromabnehmer sind viele Parteien involviert und mehrere Vertragsverhältnisse betroffen:

  • Der Kunde hat einen neuen Lieferanten, von dem er eine Rechnung erhält
  • Der alte Lieferant beendet den Vertrag
  • der Netzbetreiber rechnet die Netzentgelte für die betroffene Abnahmestelle mit einem anderen Lieferanten ab
  • der neue Lieferant ordnet die Messstelle seinem Bilanzkreis (oder dem seines Dienstleisters) zu
  • der Übertragungsnetzbetreiber rechnet die Ausgleichsenergie mit einem anderen Bilanzkreisverantwortlichen ab.

Alle damit verbundenen Datenmeldungen sollen möglichst automatisierbar und bundesweit gleichartig ablaufen, so dass ein bundesweiter Vertrieb möglich wird. Wie dies zu erfolgen hat, steht in der Darstellung der Geschäftsprozesse zur Anbahnung und Abwicklung der Netznutzung bei der Belieferung von Kunden mit Elektrizität (GPKE) und den Geschäftsprozessen Lieferantenwechsel Gas (Geli Gas). Dort ist ebenfalls geregelt, wie Stammdatenänderungen und Messdaten kommuniziert werden.

Laut §36 EnWG vorgeschrieben und ebenfalls Gegenstand von GPKE und Geli Gas ist die Grund- und Ersatzversorgung. Der Grundversorger in einem Netzgebiet der allgemeinen Versorgung ist der Versorger, der zum Feststellungszeitpunkt die meisten Haushaltskunden des Netzes beliefert. Dies wird alle drei Jahre jeweils zum 1. Juli durch den Netzbetreiber ermittelt und zum 30. September bekanntgegeben. Grundversorgungstarife und Konditionen müssen im Internet veröffentlicht werden.

Haushaltskunden, die nicht aktiv einen Stromvertrag abschließen, fallen in die Grundversorgung. Ähnliches gilt für Haushaltskunden, deren Lieferant insolvent geworden ist oder denen sich aus anderen Gründen kein gültiger Lieferant zuordnen lässt. Diese fallen in die Ersatzversorgung, die bei Haushaltskunden weitgehend der Grundversorgung entspricht.

Auch andere Abnehmer auf Niederspannungsebene werden in der Ersatzversorgung des Grundversorgers beliefert, wenn sich kein gültiger Lieferant zuordnen lässt. Diese dauert bis ein Liefervertrag abgeschlossen wurde, aber höchstens drei Monate.

4. Mehr- Mindermengenabrechnung

Ein weiterer Prozess zwischen Lieferant und Verteilnetzbetreiber ist die Mehr- Mindermengenabrechnung. Diese erfolgt für alle Standardlastprofilkunden.  Grundlage sind die Prozesse zur Ermittlung und Abrech­nung von Mehr-/Mindermengen Strom und Gas der BNetzA.

Im Rahmen des Bilanzkreismanagements und der Beschaffung durch den Lieferanten werden diese so behandelt, als ob sie das Standardlastprofil exakt abnehmen würden. Alle Differenzen landen zunächst in dem Differenzbilanzkreis des Verteilnetzbetreibers. Die aggregierte Mengendifferenz zwischen bilanzierter Menge und gemessenem Jahresverbrauch wird jedoch als Mehr-Mindermenge an den Lieferanten weiterverrechnet.

Für die Ermittlung des Mehr-Mindermengenpreises Strom für einen Monat m wird ein vorgegebenes Standardprofil SLP-K über einen Lieferzeitraum L ausgerollt und mit Spotpreisen der Börse bewertet. Dabei ergibt sich der Mehr-Mindermengenpreis des Folgemonats m+1 als der ermittelte Profilpreis für den 12-monatigen Lieferzeitraum L, der mit dem Vormonat m-1 endet. Grundlage ist die Anlage 1 (Ermittlung des Mehr-/Minder­mengenpreises Strom) der BNetzA-Prozesse.

Grundlage des Mehr-Mindermengenpreises Gas bilden die täglich vom MGV veröffentlichten Preise für positive und negative Ausgleichsenergie Gas. Mittlung dieser Preise gibt den Tagesdurchschnittspreis. Mittlung der Tagesdurchschnittspreise über den Monat ergibt den RLM-Mehr-Mindermengenpreis. Der Mehr-Mindermengenpreis Gas ergibt sich nun ähnlich wie bei Strom für den Folgemonats m+1 als Mittelwert der RLM-Mehr-Mindermengenpreise über die 12 Monate,  die dem Kalkulationsmonat m vorangehen. Grundlage ist die Anlage 2 (Ermittlung des Mehr-/Minder­mengenpreises Gas) der BNetzA-Prozesse.

Marktdesign-Mehr-Mindermengenpreis

Zuständig für die Ermittlung und Veröffentlichung der Mehr-Mindermengenpreise sind bei Strom der BdeW und bei Gas die MGVs. Die Veröffentlichung erfolgt jeweils bis zum 10ten Werktag des Kalkulationsmonats für den Folgemonat.

5. Weitere Aufgaben der Verteilnetzbetreiber

Im Rahmen der Bilanzierung sind für nicht leistungsgemessene Kunden Standardlastprofile erforderlich. Die Entwicklung und Auswahl dieser Profile ist Aufgabe des Verteilnetzbetreibers. In der Gasversorgung haben die Profile der TU-München und kleine Variationen davon weite Verbreitung gefunden. In der Stromversorgung halten sich hartnäckig die synthetischen Profile des BdeW.

Der Verteilnetzbetreiber ist verpflichtet, die Qualität seiner Standardlastprofile zu prüfen und den Differenzbilanzkreis, in dem die Differenz zwischen Standardlastprofilen und tatsächlicher Abnahme sichtbar wird, aktiv am Markt zu bewirtschaften beziehungsweise bewirtschaften zu lassen. Weiterhin muss er für die in seinem Verteilnetz zu erwartenden Netzverluste Verlustenergie beschaffen.

Sofern der Netzbetreiber diese Aufgabe nicht an ein anderes Unternehmen delegiert hat, ist er für die Verbrauchsmessung und für die Etablierung von Messeinrichtungen zuständig. Hierzu gehört auch der von der Regierung im Rahmen des Digitalisierungsgesetzes beschlossene Roll-out von Smart Metern (siehe Artikel Digitalisierung und Messstellenbetriebsgesetz).

Erneuerbare Energien und Grenzen des Marktdesigns

In dem beschriebene Marktdesign erzielen Erzeuger einen positiven Deckungsbeitrag, wenn die aus der Erzeugung erzielbaren Erlöse am Markt über ihren Grenzkosten liegen (siehe den Artikel Kraftwerksvermarktung & Dispatch).  Genau dann werden sie somit ihre Kraftwerke auch fahren. Über die Zusammenführung von Angebot und Nachfrage kommt der Preis am Markt dann genau so hoch heraus, dass für die bestehende Nachfrage gerade eben genügend Erzeugung bereitsteht. Somit deckt das letzte Kraftwerk, das für die Deckung der Nachfrage erforderlich ist, nur noch Grenzkosten und keine Vollkosten mehr.

Mit der Novellierung des Erneuerbaren Energien Gesetzes (EEG) und der damit einhergehenden verpflichtenden Direktvermarktung gilt derselbe Mechanismus prinzipiell auch für Betreiber von EEG-Anlagen. Allerdings erhalten diese in Form der Marktprämie einen zusätzlichen Ergebnisbeitrag pro erzeugte MWh vom Netzbetreiber. Dieser reicht im Allgemeinen aus, um die Differenz zwischen Grenzkosten und Vollkosten zu decken, sonst würde keine weitere Investition in Erneuerbare Energien erfolgen. Weiterhin wird die jeweils anwendbare Marktprämie so ermittelt, dass die Einnahmen aus Markterlösen zuzüglich Marktprämie für die durchschnittliche Einspeisung jeder EEG-Kategorie des Gesetzes unabhängig von der Entwicklung des Marktpreisniveaus eine im Gesetz der jeweiligen Kategorie zugeordnete fixe Vergütung ergeben. (Eine ausführliche Darstellung der EEG-Förderung sprengt den Rahmen dieses Artikels).

Ein wesentlicher Teil der Erneuerbaren Erzeugung, nämlich Wind und Sonne, hat überhaupt keine Grenzkosten. Erneuerbare Erzeugung, die zu Null in die Preisbildung der Energiemärkte geht, senkt offenbar die Preise. Dies senkt die Erlöse und die sogenannten Benutzungsstunden der konventionellen Erzeugung. Immer mehr konventionelle Kraftwerke haben in Folge Schwierigkeiten, Kosten zu decken, die mit der Bereithaltung des Kraftwerks verbunden sind, und gehen in Kaltreserve. Auf die durchschnittliche Wirtschaftlichkeit der Erneuerbaren hat ein sinkendes Preisniveau jedoch durch die Anpassung der Marktprämie keinen Einfluss.

In Folge sinkt der Anteil der Energiekosten des Endverbrauchers, der überhaupt über Marktpreise bestimmt ist.  Ein immer größerer Teil der Erzeugungskosten entsteht aus den Vergütungszusagen des EEG, die bisher keinen Marktmechanismen unterlagen (dies ändert sich mit EEG 2017), und wird über die EEG-Umlage auf die Verbraucher umgelegt. Die Kostenkontrolle des Energiemarktes wird damit ausgehebelt und die Gesamtkosten steigen.

Es steigt weiterhin wie gewünscht der Anteil Erneuerbarer Energien an der Erzeugung. Um zu beurteilen, wie weit diese Einspeisung einen Beitrag zur Versorgungssicherheit leistet, muss jedoch auch das Einspeiseprofil berücksichtigt werden. Bekanntlich müssen Einspeisung und Abnahme im Stromnetz auf Viertelstundenbasis übereinstimmen. Die folgende Graphik zeigt Regelzonenlast und aggregierte Windeinspeisung für die Regelzone 50Hz im Mai 2014 in Viertelstundengranularität:

Marktdesign-Last-Windeinspeisung-50Hz

Es verwundert nicht, dass eine solche Einspeisestruktur mit Netzproblemen einhergehen kann. Der Markt hat dafür keine Lösung. Das derzeitige Marktdesign bietet auf der Netzseite einfache, handels- und vertriebstaugliche Preisstrukturen, die nicht verursachungsgerecht sind und keine Information über akute oder erwartete Knappheit beinhalten.

Ebenso wenig verwundert, dass es dem konventionellen Kraftwerkspark zunehmend schwer fällt, die Restlast, nach Abzug des Einspeiseprofils zu decken. Bereithaltung von Kraftwerken als Lückenfüller ist teuer. Auch die Hebung von Flexibilitätsreserven auf der Absatzseite ist oftmals wirtschaftlich nur schwer darstellbar (siehe Artikel zum Digitalisierungsgesetz).