Risikokennzahlen auf dem Prüfstand, Teil 5 Value at Risk – wer nicht hinsieht, tappt in die Falle

Paul Skiba vom Vermögensverwalter BPM – Berlin Portfolio Management

Paul Skiba vom Vermögensverwalter BPM – Berlin Portfolio Management

// //

In den 1990er Jahren wünschte sich das Management der US-Amerikanischen Großbank J.P. Morgan eine Zahl, an welcher man das gesamte Verlustrisiko aller Anlagen auf einen Blick abschätzen könne. Welche Verlustschwelle werde ich mit fast sicherer Wahrscheinlichkeit nicht durchbrechen? Die Antwort auf diese Frage war die Geburt des Value at Risk (VaR).

Für was man den VaR schätzen möchte, spielt übrigens keine Rolle. Häufig sieht man die Nutzung auf Basis von Wertpapierrenditen in Prozentpunkten. Die Kennzahl findet sich jedoch ebenso in der Kreditrisikoschätzung und selbst bei Wetterprognosen wieder.

Eine Frage der Modellierung

Die Herangehensweise ist zunächst modellunabhängig: Auf Grundlage historischer Werte wird eine Wahrscheinlichkeitsverteilung des Assets angenommen und aus dieser wird jener Wert abgelesen, welcher mit einer bestimmten Wahrscheinlichkeit nicht unterschritten wird. Dieser ist dann der Value at Risk zum entsprechend definierten Wahrscheinlichkeitsniveau (auch Konfidenzniveau). Bei der Identifizierung der notwendigen Wahrscheinlichkeitsverteilung unterscheidet man wiederum zwischen parametrischen und nicht-parametrischen Ansätzen.

Nicht-parametrische Modelle zeichnen sich dadurch aus, dass sie keine bestimmte Funktion der Wahrscheinlichkeitsverteilung voraussetzen. Für einen einfachen historischen Value at Risk würde dies bedeuten, dass man sich die Preisänderungen eines Assets ansieht und anhand der niedrigsten 5 Prozent den VaR erhält – hier handelt es sich um den VaR zum 95-Prozent-Niveau (100 minus 5).

Hat man 100 Werte, sortiert man diese einfach der Größe nach, fängt von unten an zu zählen und schreibt sich den fünften Wert auf. Sind die niedrigsten fünf Werte minus 7, 6, 5, 4 und 3 Prozent, so ist der VaR gleich 3 Prozent. Die Interpretation ist dann: Historisch wurde ein Verlust von 3 Prozent über den relevanten Betrachtungszeitraum, beispielsweise auf Tagesebene, in 95 Prozent der Fälle nicht überschritten. Man sieht bereits wie sensitiv die Wahl des Konfidenzniveaus ist. Unsere Stichprobe enthält nämlich auch den Wert minus 7 und damit ein Vielfaches des VaR.

Sinnvoller Trick in der Methodik

Um ein etwas robusteres Ergebnis zu erhalten, kann man die vorhandenen Zahlen auch nach dem Zufallsprinzip neu kombinieren, als zöge man Lottokugeln aus einer Trommel. Aus seiner neu kombinierten Stichprobe erhält man nun einen neuen Value at Risk. Wiederholt man dies mehrfach, kann man einen Durchschnitt der Kennzahl bilden und hat so einen repräsentativeren VaR.

Diese Methode bezeichnet man in der Statistik als Bootstrapping. Der Begriff kommt daher, dass man mit diesem Trick seine kleine Stichprobe künstlich vergrößern kann und sich methodisch damit am eignen Stiefelriemen (Bootstrap) aufs Pferd schwingt.

Problem mit schwarzen Schwänen

Diese Strategie hat trotz ihrer Einfachheit eine sehr charmante Eigenschaft: Sie unterstellt kein (womöglich ungenaues) Modell der Wahrscheinlichkeitsverteilung. Haben sich Tail-Risiken und schwarze Schwäne in der Vergangenheit realisiert, finden sich diese auch in den Daten wieder und der VaR beinhaltet diese Ausreißer bereits.

Schwieriger wird es, wenn sich bisher noch kein extremer Verlust eingestellt hat. Nicht-parametrische Methoden bieten keine Möglichkeit über den Tellerrand der historischen Daten hinauszusehen. Es ist aber berechtigt davon auszugehen, dass der bisher größte Verlust nicht das absolute Maximum darstellt, sondern vielmehr einen ersten Eindruck des Verlustpotentials einer Anlage vermittelt.