Quantitativer Handel - Seite 17

 

Financial Engineering-Kurs: Vorlesung 14.11., Teil 1/2, (Marktmodelle und Konvexitätsanpassungen)



Financial Engineering-Kurs: Vorlesung 14.11., Teil 1/2, (Marktmodelle und Konvexitätsanpassungen)

In dieser Vorlesung liegt der Fokus vor allem auf dem Bibliotheksmarktmodell und seinen Erweiterungen, insbesondere der stochastischen Volatilität. Das Bibliotheksmarktmodell zielt darauf ab, einzelne Maße der Libor-Sätze zu einem einheitlichen und konsistenten Maß zur Bewertung von Derivatepreisen zu konsolidieren. Nachdem er einen Überblick über die Geschichte und die Spezifikationen des Modells gegeben hat, befasst sich der Redner mit der Ableitung des Modells und untersucht beliebte Optionen wie logarithmische Normalität und stochastische Volatilität.

Das zweite behandelte Thema ist die Konvexitätskorrektur, bei der es um die Definition und Modellierung dieser Anpassungen geht. In der Vorlesung geht es darum, wann Konvexitätskorrekturen auftreten, wie man sie identifiziert und welche Relevanz sie für die Bewertung von Derivaten haben, die Konvexitätsanpassungen beinhalten.

Der Dozent betont die Bedeutung von Marktmodellen und Konvexitätsanpassungen im Bereich Financial Engineering. Marktmodelle bieten leistungsstarke Lösungen für verschiedene komplexe Probleme, insbesondere bei der Preisgestaltung exotischer Derivate mit komplizierten Auszahlungsstrukturen. Allerdings können diese Modelle umständlich und teuer sein. Dennoch wurden das Libor-Marktmodell oder Marktmodelle im Allgemeinen für die Bewältigung solcher Komplikationen entwickelt, insbesondere bei der Preisgestaltung exotischer Derivate, die von mehreren Libor-Sätzen abhängig sind.

Darüber hinaus untersucht die Vorlesung die Entwicklung einer einheitlichen Messgröße zur Einbeziehung mehrerer Libor-Sätze, einer entscheidenden Voraussetzung für eine genaue Preisgestaltung. Die eingesetzte Maschinerie beruht auf Techniken der großen Veränderung und der mit Nullkuponanleihen verbundenen Vorwärtsmaßnahme. Obwohl in einigen Fällen geschlossene Lösungen möglich sind, ist die Maschinerie selbst komplex und mehrdimensional.

Der Redner erörtert den Rahmen für die Definition von Zinsmodellen und betont die Bedeutung der Festlegung von Drift- und Volatilitätsbedingungen, um sicherzustellen, dass das Modell klar definiert und frei von Arbitragemöglichkeiten ist. Die Bewertung komplexer festverzinslicher Produkte, einschließlich exotischer Derivate, erfordert aufgrund ihrer Abhängigkeit von mehreren Bibliotheken fortgeschrittene Modelle, die es unmöglich machen, sie in unabhängige Zahlungen zu zerlegen. Um dieses Problem anzugehen, wird das Libor-Marktmodell eingeführt, das mit einem praktischen Ansatz entwickelt wurde, um die Konsistenz mit Marktpraktiken und bestehenden Preismethoden für Swaptions oder Optionen auf Bibliotheken aufrechtzuerhalten. Dieses Modell ermöglicht eine erweiterte Bewertung und ist Arbitrage-frei, was es für die Preisgestaltung komplexer festverzinslicher Produkte unverzichtbar macht.

Der Vortrag betont die Bedeutung des BGM-Modells (Brace Gatarek Musiela), das die Preisgestaltung exotischer Derivate revolutioniert hat. Aufbauend auf bestehenden Marktgrundlagen führte das BGM-Modell zusätzliche Elemente ein, die es ihm ermöglichten, weithin als Marktpraxis für die Preisgestaltung von Derivaten akzeptiert zu werden, die an mehrere Bibliotheken und komplexe Volatilitätsstrukturen gebunden sind. Monte-Carlo-Simulationen werden häufig verwendet, um die am BGM-Modell beteiligten Prozesse zu trennen, da der Umgang mit mehreren Libor-Sätzen unter verschiedenen Maßstäben Herausforderungen mit sich bringt. Das Modell zielt darauf ab, eine Arbitrage-freie Dynamik für die Libor-Sätze bereitzustellen und die Preisgestaltung für Caplets und Florets auf ähnliche Weise wie die durch die Black-Scholes-Formel festgelegte Marktkonvention zu ermöglichen. Während das BGM-Modell diesen grundlegenden Block vereinfacht, bietet es zusätzliche Funktionen, um die Preisgestaltung exotischer Derivate zu erleichtern.

Der Redner erläutert anschließend den Prozess zur Erlangung von Bibliothekszinsen, indem er einen Forward Zero Bond als Refinanzierungsstrategie zwischen dem Zeitpunkt t1 und dem Zeitpunkt d2 definiert. Verschiedene Überlegungen wie Rücksetztermine, Rücksetzverzögerung und Zahlungsverzögerung müssen berücksichtigt werden, da Unstimmigkeiten zwischen Produktzahlung und Rabattierung Konvexitätsanpassungen erfordern. Im weiteren Verlauf befasst sich die Vorlesung mit der Spezifikation eines mehrdimensionalen Libor-Marktmodells, beginnend mit der Bestimmung der erforderlichen Anzahl von Libor-Sätzen.

Die Vorlesung untersucht die Struktur stochastischer Differentialgleichungen für ein System von Libor-Sätzen über die Zeit. Mit fortschreitender Zeit nimmt die Dimensionalität des Systems ab, da bestimmte Libor-Sätze an bestimmten Punkten festgelegt werden. Der Referent betont die Bedeutung der Korrelationsstruktur zwischen den Libor-Sätzen und ihrer Parametrisierung, um eine positiv-definite Korrelationsmatrix sicherzustellen. In der Vorlesung wird auch die Rolle des Forward Measures und von Nullkuponanleihen bei der Definition von Martingalen erwähnt.

Als Martingale werden handelbare Vermögenswerte und Nullkuponanleihen eingeführt. Der Libor-Satz, L(T) und TI-1 gelten unter bestimmten Bedingungen als Martingale. Als Treiber der Brownschen Bewegung werden die Funktionen σ(i) und σ(j) eingeführt, die unter einem konsistenten Maß definiert werden müssen. Die Vorlesung unterstreicht die Notwendigkeit der Konsistenz zwischen dem Erwartungsmaß und dem Brownschen Bewegungsmaß, das zur Bewertung von Ausdrücken verwendet wird. Das Libor-Marktmodell, auch BGM-Modell genannt, kombiniert einzelne Sätze gemäß Marktpraktiken, die aus Black-Scholes-Modellen abgeleitet sind, und dient als zentraler Punkt im Rahmen des Modells.

Die Vorlesung befasst sich mit dem Konzept des Libor-Marktmodells, das mehrere stochastische Differentialgleichungen verwendet, um verschiedene Prozesse unter einem konsistenten Vorwärtsmaß zu vereinen. Jeder Libor-Satz fungiert für sich genommen als Martingal. Wenn jedoch die Maße für jeden Libor-Satz geändert werden, wirkt sich dies auf die Dynamik und den Drift-Term aus. Das entscheidende Element des Libor-Marktmodells liegt in der Bestimmung des Übergangs der Drift und ihres Verhaltens, wenn sich die Maße für jeden Libor-Satz ändern. Dieser Driftbegriff kann komplex sein, und in der Vorlesung werden zwei gängige Möglichkeiten zur Auswahl des Endmaßes oder des Spotmaßes für die Preisgestaltung von Derivaten erörtert. Darüber hinaus untersucht die Vorlesung die Beziehung zwischen dem Libor-Marktmodell und anderen Modellen wie AJM (Andersen-Jessup-Merton), Brace Gatarek Musiela Model und HJM (Heath-Jarrow-Morton) und bietet Einblicke in deren Zusammenhänge. Auch die Nutzung der Full-Wide-Volatilität für den momentanen Terminzinssatz im Libor-Marktmodell wird untersucht.

Der Vortrag befasst sich mit der Beziehung zwischen dem momentanen Terminkurs und dem Libor-Satz und betont deren starke Korrelation, insbesondere wenn sich die beiden Zeitpunkte einander annähern und ein laufender Index vorliegt. Der Prozess der Änderung des Maßes von i zu j und das Finden des Driftterms durch Maßtransformationen wird ausführlich erklärt. Die Vorlesung unterstreicht, wie wichtig es ist, die in den vorherigen Vorlesungen behandelten Konzepte zu verstehen, um die Vielfalt der in den letzten beiden Vorlesungen erforderlichen Werkzeuge und Simulationen zu verstehen.

Der Dozent befasst sich mit Maßtransformationen und der Dynamik des Libor-Zinssatzes unter verschiedenen Maßstäben. Durch die Anwendung des Girsanov-Theorems und entsprechende Substitutionen wird eine Gleichung abgeleitet, die die Maßtransformation von i-1 nach i oder umgekehrt darstellt. Diese Gleichung dient als Grundlage für die Darstellung des LIBOR-Zinssatzes unter verschiedenen Maßstäben. Der Vortrag unterstreicht die Bedeutung der Auswahl des geeigneten Spot- oder Terminalmaßes für eine genaue Derivatepreisgestaltung.

In der Vorlesung wird außerdem der Prozess der Anpassung der Drift für unterschiedliche Libor-Sätze innerhalb des Marktmodells erläutert, um die Konsistenz mit der Endmessgröße sicherzustellen. Bei der Anpassung werden alle notwendigen Anpassungen der Libor-Sätze zwischen dem ersten und dem letzten Zinssatz bis zum Erreichen des Endmaßes akkumuliert. Der Übergang von einer Messgröße zur anderen kann iterativ abgeleitet werden, und der Prozess der Anpassung der Drift ist für das Libor-Marktmodell von zentraler Bedeutung. Eine Herausforderung ergibt sich jedoch bei der Endmessung, bei der der kürzeste Zeitraum, der der Gegenwart am nächsten liegt, stochastischer wird, da er alle nachfolgenden Prozesse umfasst, was möglicherweise nicht intuitiv erscheint. Nichtsdestotrotz funktioniert das Libor-Marktmodell in erster Linie unter der Spot-Maßnahme als Konsensstandard, es sei denn, eine bestimmte Auszahlung ist für die Terminal-Maßnahme vorgesehen.

Der Redner geht auf bestimmte Probleme des Bibliotheksmarktmodells ein, insbesondere auf die mangelnde Kontinuität in Bezug auf die Zeiten zwischen dem festgelegten Tenorraster. Um dieses Problem anzugehen, stellt der Redner die Strategie vor, ein diskretes dreidiskretes neu ausgeglichenes Geldsparkonto zu verwenden, um das Spotmaß für das Bibliotheksmarktmodell zu definieren. Bei dieser Strategie wird beobachtet, wie sich eine heute investierte Währungseinheit angesichts der bestehenden Tenderstruktur von Nullkuponanleihen ansammeln kann. Die Strategie wird nicht zum Zeitpunkt t0, sondern zum Zeitpunkt t1 definiert und beinhaltet den Kauf einer Anleihe zum Zeitpunkt t1, den Erhalt des aufgelaufenen Betrags bei Fälligkeit und die Reinvestition in die zweite Anleihe zum Zeitpunkt t2.

In der Vorlesung wird das Konzept der Aufzinsung innerhalb einer diskreten Intervallstruktur erläutert, die eine Investition in Nullkuponanleihen bei gleichzeitiger Reinvestition der erhaltenen Beträge in neue Anleihen ermöglicht. Das Produkt aller Komponenten der Nullkuponanleihe definiert den Betrag, den der Anleger zu einem bestimmten Zeitpunkt erhalten würde. Der kumulierte Betrag kann kontinuierlich durch Abzinsung vom letzten Punkt im Raster bis zum aktuellen Punkt definiert werden. Die Vorlesung stellt das Konzept des Spot-Libor-Maßes vor, das es dem laufenden Zähler ermöglicht, von einem ti-Maß auf ein tm-Maß umzuschalten. Darüber hinaus wird das Konzept von mt als Minimum i eingeführt, sodass ti größer als t ist, wodurch eine Verbindung zwischen t und der nächsten Bindung hergestellt wird.

Im weiteren Verlauf erklärt der Redner den Prozess der Definition der Maßtransformation vom M_t-Maß zum M_t+1-Maß. Dies wird durch den Einsatz des Radon-Nikodym-Derivats erreicht. Die Vorlesung befasst sich mit der Dynamik für Lambda und Psi, die die Maßtransformation und den Zusammenhang zwischen Brownschen Bewegungen unter t und n bestimmt. Abschließend stellt der Referent die endgültige Darstellung des Bibliotheksmarktmodells vor, die den zuvor diskutierten Maßtransformationen in Modellen wie dem Marktmodus sehr ähnelt.

Als nächstes konzentriert sich die Vorlesung auf die Dynamik des Libor-Marktmodells, insbesondere auf seine Anwendung bei der Preisgestaltung fortgeschrittener und komplexer exotischer Produkte im Zinsbereich. Das Modell stellt ein hochdimensionales Problem mit einer komplexen Drift dar, die mehrere Libor-Sätze umfasst, was seine Umsetzung zu einer Herausforderung macht. Das Modell dient jedoch als wertvolles Werkzeug zur Problemlösung. In der Vorlesung werden Erweiterungen des Modells zur Einbeziehung von Volatilitätslächeln untersucht und die Auswahl des stochastischen Volatilitätsprozesses unter Beibehaltung der Dynamik des Modells so vereinfacht wie möglich erörtert. Es wird darauf hingewiesen, dass die logarithmische Normalität des Modells nur unter dem Randmaß existiert und eine Summierung verschiedener unabhängiger Prozesse beinhaltet, was darauf hindeutet, dass es im allgemeinen Fall nicht logarithmisch normal ist.

Die Vortragsreihe zum Libor-Marktmodell und seinen Erweiterungen, insbesondere zur stochastischen Volatilität, befasst sich mit verschiedenen Aspekten des Modellrahmens. Es umfasst die Vereinheitlichung einzelner Libor-Sätze zu einem konsistenten Maß, die Ableitung des Modells unter Verwendung gängiger Optionen wie logarithmischer Normalität und stochastischer Volatilität sowie das Konzept der Konvexitätskorrekturen für die Preisgestaltung von Derivaten. In der Vorlesung wird betont, wie wichtig es ist, Maßtransformationen und Dynamiken unter verschiedenen Maßen zu verstehen und geeignete Punkt- oder Endmaße auszuwählen. Die Fähigkeit des Modells, mit komplexen festverzinslichen Produkten umzugehen, seine Beziehung zu anderen Marktmodellen sowie seine Dynamik und Herausforderungen werden eingehend untersucht. Durch das Verständnis dieser Konzepte und Instrumente können Finanzingenieure exotische Derivate effektiv bewerten und sich in den Feinheiten der Zinswelt zurechtfinden.

  • 00:00:00 In diesem Abschnitt der Vorlesung zum Financial Engineering-Kurs liegt der Schwerpunkt auf dem ersten Thema des Bibliotheksmarktmodells und seinen Erweiterungen, insbesondere der stochastischen Volatilität. Das Bibliotheksmarktmodell zielt darauf ab, alle einzelnen Maße der Libor-Sätze zu einem einheitlichen Maß zusammenzuführen und die Preisableitung zu bewerten. Nach der Erörterung der Geschichte und der Modellspezifikationen befasst sich die Vorlesung mit der Ableitung des Modells, einschließlich der gängigen Optionen für logarithmische Normalität und stochastische Volatilität. Das zweite Thema ist die Konvexitätskorrektur. Dazu gehört die Definition, was Konvexitätskorrekturen sind, die Identifizierung ihres Auftretens, ihre Modellierung und die Bewertung von Ableitungen, die Konvexitätsanpassungen beinhalten.

  • 00:05:00 In diesem Abschnitt diskutiert der Dozent Marktmodelle und Konvexitätsanpassungen in Bezug auf Financial Engineering. Marktmodelle sind äußerst leistungsfähig und können zur Lösung einer Vielzahl schwerwiegender Probleme eingesetzt werden, können jedoch aufgrund ihrer schwerfälligen und teuren Natur auch problematisch sein. Das Libor-Marktmodell bzw. die Marktmodelle sind jedoch darauf ausgelegt, sehr komplizierte fortgeschrittene Auszahlungsstrukturen bei der Preisgestaltung exotischer Derivate zu bewältigen. Erörtert wird auch die Entwicklung einer einheitlichen Messgröße zur Integration mehrerer Libor-Sätze in ein Rahmenwerk, was für Preisbildungszwecke notwendig ist. Die Maschinerie basiert auf großen Veränderungstechniken und der mit Nullkuponanleihen verbundenen Vorwärtsmaßnahme. In einigen Fällen sind zwar geschlossene Lösungen möglich, die Maschinerie selbst ist jedoch komplex und mehrdimensional.

  • 00:10:00 In diesem Abschnitt erörtert der Redner den Rahmen für die Definition von Zinsmodellen, bei dem Bedingungen für Drift und Volatilität festgelegt werden, um sicherzustellen, dass das Modell klar definiert und Arbitrage-frei ist. Komplexe festverzinsliche Produkte wie exotische Derivate erfordern fortschrittliche Bewertungsmodelle, da ihre Auszahlung von mehreren Bibliotheken abhängt und nicht in unabhängige Zahlungen zerlegt werden kann. Der Redner stellt das Libor-Marktmodell vor, das mit einem praktischen Ansatz entwickelt wurde, um sicherzustellen, dass es mit den Marktpraktiken übereinstimmt und die aktuellen Preispraktiken für Swaptions oder Optionen auf Bibliotheken nicht beeinträchtigt. Dieses Modell ermöglicht eine erweiterte Bewertung und ist Arbitrage-frei, was es bei der Preisgestaltung komplexer festverzinslicher Produkte nützlich macht.

  • 00:15:00 In diesem Abschnitt der Vorlesung wird die Bedeutung des BGM-Modells und wie es die Preisgestaltung exotischer Derivate ermöglicht, diskutiert. Das BGM-Modell basierte auf bestehenden Bausteinen auf dem Markt und fügte dem Rahmenwerk etwas Besonderes hinzu, sodass es als Marktpraxis für die Preisgestaltung exotischer Derivate akzeptiert werden konnte, die von mehreren Bibliotheken und komplexen Volatilitätsstrukturen abhängen. Die Trennung der am BGM-Modell beteiligten Prozesse erfolgt aufgrund des Dimensionalitätsproblems beim Umgang mit mehreren Libor-Sätzen unter verschiedenen Maßstäben meist mithilfe von Monte-Carlo. Das Konzept der Entwicklung eines neuen Modells besteht darin, eine Arbitrage-freie Dynamik für Libor-Sätze bereitzustellen und die Preisgestaltung für Caplets und Florets auf ähnliche Weise wie die Marktkonvention, die Black-Scholes-Formel, zu erleichtern. Das BGM-Modell beschränkt sich auf diesen grundlegenden Block, bietet aber dennoch etwas Zusätzliches zum Rahmenwerk, um die Preisgestaltung exotischer Derivate zu ermöglichen.

  • 00:20:00 In diesem Abschnitt der Vorlesung diskutiert der Referent, wie man zu den Bibliothekszinssätzen gelangt, indem man Forward Zero Bond als Refinanzierungsstrategie zwischen Zeitpunkt t1 und Zeitpunkt d2 definiert. Die Rücksetzungstermine können geringfügig geändert werden, und es sind zusätzliche Termine zu berücksichtigen, wie z. B. die Rücksetzungsverzögerung und die Zahlungsverzögerung. Wenn zwischen der Bezahlung des Produkts und dem Rabatt ein Missverhältnis besteht, erklärt der Sprecher, dass Konvexitätsanpassungen vorgenommen werden müssen, um die Auswirkungen zu berücksichtigen. Anschließend erörtert der Redner die Spezifikation eines mehrdimensionalen Libor-Marktmodells, beginnend mit der Definition der Anzahl der benötigten Libor-Sätze.

  • 00:25:00 In diesem Abschnitt der Vorlesung „Financial Engineering“ diskutiert der Referent die Struktur stochastischer Differentialgleichungen für ein System von Libor-Sätzen über die Zeit. Mit fortschreitender Zeit nimmt die Dimensionalität des Systems ab, da einige der Libor-Sätze zu bestimmten Zeitpunkten festgelegt werden. Der Referent erklärt, dass auch die Korrelationsstruktur zwischen den Libor-Sätzen wichtig ist und parametrisiert werden kann, um sicherzustellen, dass die Korrelationsmatrix positiv definit ist. Im Zusammenhang mit der Definition von Martingalen werden auch Forward-Measure-Anleihen und Nullkuponanleihen erwähnt.

  • 00:30:00 In diesem Abschnitt der Vorlesung wird das Konzept der handelbaren Vermögenswerte und Nullkuponanleihen als Martingal diskutiert. Wenn wir wissen, dass Libor, L(T) und TI-1 ein Martingal sind, können wir die Funktionen σ(i) und σ(j) definieren, die zu den Treibern der Brownschen Bewegung werden. Diese Treiber müssen jedoch unter einem konsistenten Maß definiert werden, und es muss Konsistenz zwischen dem Erwartungsmaß und dem Brownschen Bewegungsmaß bestehen, das zur Bewertung eines Ausdrucks verwendet wird. Dies ist der Kernpunkt des Libor-Marktmodells oder BGM-Modells, das einzelne Sätze gemäß den Marktpraktiken der Preisgestaltung mithilfe von Black-Scholes-Modellen kombiniert.

  • 00:35:00 In diesem Abschnitt der Vorlesung wird das Konzept des Libor-Marktmodells untersucht. Dieses Modell verwendet mehrere stochastische Differentialgleichungen, um verschiedene Prozesse unter einem konsistenten Vorwärtsmaß zusammenzuführen. Jeder Libor ist mit seinem eigenen Maß ein Martingal, aber eine Änderung der Maße hat Konsequenzen für die Dynamik und den Driftterm des entsprechenden Libor-Satzsatzes. Das Schlüsselelement des Libor-Marktmodells besteht darin, den Übergang der Drift und ihr Verhalten zu bestimmen, wenn die entsprechenden Maße für jeden Libor-Satz geändert werden. Dieser Drift-Term kann recht kompliziert sein, und in der Vorlesung werden zwei gängige Möglichkeiten zur Wahl des Endmaßes oder des Kassamaßes für die Preisgestaltung von Derivaten erörtert. Darüber hinaus wird die Beziehung des Libor-Marktmodells zum AJM, Brace Gatarek Musiela-Modell und HJM diskutiert, und in der Vorlesung wird die Verwendung einer vollständigen breiten Volatilität für den momentanen Terminzins im Libor-Marktmodell untersucht.

  • 00:40:00 In diesem Abschnitt des Vortrags erörtert der Referent die Beziehung zwischen dem momentanen Terminkurs und dem Libor-Satz, die eng miteinander verbunden sind, insbesondere in Fällen, in denen sich die beiden Zeiten einander annähern und ein laufender Index vorhanden ist . In der Vorlesung geht es auch ausführlich um die Änderung des Maßes von i zu j und um die Ermittlung des Driftterms anhand von Maßtransformationen, der ein Schlüsselelement bei der Transformation von Brownschen Bewegungen unter verschiedenen Maßen ist. Die Vorlesung betont, wie wichtig es ist, die Konzepte früherer Vorlesungen zu verstehen, um die Vielfalt der Werkzeuge und Simulationen zu verstehen, die in den letzten beiden Vorlesungen des Kurses erforderlich sind.

  • 00:45:00 In diesem Abschnitt der Vorlesung diskutiert der Professor Maßtransformationen und die Dynamik der Bibliothek unter verschiedenen Maßen. Mithilfe des Girsanov-Theorems und einiger Substitutionen gelangt der Professor zu einer Gleichung, die die Maßtransformation von i-1 nach i oder umgekehrt zeigt. Der Professor erklärt dann, wie diese Gleichung verwendet werden kann, um den LIBOR-Satz unter verschiedenen Maßstäben darzustellen. Der Vortrag unterstreicht auch die Bedeutung der Wahl des geeigneten Spot- oder Terminalmaßes für die Preisgestaltung von Derivaten.

  • 00:50:00 In diesem Abschnitt der Vorlesung zum Financial Engineering-Kurs erklärt der Dozent, wie die Drift für verschiedene Bibliotheken im Marktmodell so angepasst wird, dass sie mit der Terminalkennzahl übereinstimmt. Er erklärt, dass alle Bibliotheken zwischen der ersten und der letzten angepasst und bis zu dieser endgültigen Maßnahme akkumuliert werden müssen. Der Übergang von einer Kennzahl zur anderen kann iterativ abgeleitet werden, und der Prozess der Anpassung der Drift ist das Wesentliche des Libor-Marktmodells. Das mit der Endmessung verbundene Problem besteht jedoch darin, dass der Prozess für den kürzesten Zeitraum, der dem heutigen Tag am nächsten liegt, letztendlich stochastischer ist, da er alle Prozesse umfasst, die nach diesem Punkt liegen, was nicht intuitiv ist. Dennoch funktioniert das Libor-Marktmodell unter der Spot-Messung als Konsensstandard, es sei denn, eine Auszahlung ist in der End-Messung festgelegt.

  • 00:55:00 In diesem Abschnitt der Vorlesung erörtert der Redner die Probleme mit dem Bibliotheksmarktmodell, insbesondere die mangelnde Kontinuität in Bezug auf die Zeiten zwischen dem angegebenen Mieterraster. Daher erläutert der Redner die Strategie, ein diskret aus drei diskreten Ausgleichsgeldsparkonten bestehendes Sparkonto zu verwenden, um die Kassakennzahl für das Bibliotheksmarktmodell zu definieren. Dabei geht es darum, zu beobachten, wie sich angesichts der bestehenden Tenderstruktur von Nullkuponanleihen heute die Anlage einer Währungseinheit akkumulieren lässt. Die Strategie wird nicht zum Zeitpunkt t0, sondern zum Zeitpunkt t1 definiert und beinhaltet den Kauf einer Anleihe zum Zeitpunkt t1, den Erhalt des aufgelaufenen Betrags bei Fälligkeit und die Reinvestition in die zweite Anleihe zum Zeitpunkt t2.

  • 01:00:00 In diesem Abschnitt wird das Konzept der Aufzinsung in einer diskreten Intervallstruktur als eine Möglichkeit erläutert, in Nullkuponanleihen zu investieren und gleichzeitig die erhaltenen Beträge in neue Anleihen zu reinvestieren. Das Produkt aller Nullkomponenten definiert den Betrag, den der Anleger zu einem bestimmten Zeitpunkt erhalten würde, und der kumulierte Betrag kann kontinuierlich durch Abzinsung vom letzten Punkt im Raster bis zum aktuellen Punkt definiert werden. Außerdem wird das Konzept des Spot-Libor-Maßes eingeführt, das es dem laufenden Zähler ermöglicht, von einem ti-Maß zu einem tm-Maß zu wechseln. Darüber hinaus wird das Konzept von mt als Minimum i eingeführt, sodass ti größer als t ist, um t mit der nächsten Bindung zu verknüpfen.

  • 01:05:00 In diesem Abschnitt der Vorlesung geht der Referent durch den Prozess der Definition der Maßtransformation vom M_t-Maß zum M_t+1-Maß. Dies wird durch die Verwendung des Radon-Nikodym-Derivats erreicht. Der Referent erläutert außerdem die Dynamik für Lambda und Psi, die die Maßtransformation und den Zusammenhang zwischen Brownschen Bewegungen unter t und n bestimmen wird. Abschließend stellt der Redner die endgültige Darstellung des Bibliotheksmarktmodells vor, die dem ähnelt, was zuvor bei sich ändernden Maßzahlen wie dem Marktmodus gesehen wurde.

  • 01:10:00 In diesem Abschnitt diskutiert der Referent die Dynamik des Libor-Marktmodells, das für fortgeschrittene und komplizierte exotische Produkte in der Zinswelt verwendet wird. Das Modell beinhaltet ein hochdimensionales Problem mit einer komplizierten Drift, die mehrere Libors umfasst, was die Implementierung erschwert. Das Modell ist jedoch ein Problemlöser, und der Redner diskutiert weiterhin Erweiterungen des Modells, um Volatilitätslächeln einzubeziehen, und wie man den stochastischen Volatilitätsprozess wählt und gleichzeitig die Dynamik des Modells so vereinfacht wie möglich hält. Der Sprecher stellt fest, dass die logarithmische Normalität des Modells nur unter dem Randmaß existiert und dass es sich um eine Summierung verschiedener autonomer Prozesse handelt, sodass es im allgemeinen Fall nicht logarithmisch normal ist.
Financial Engineering Course: Lecture 11/14, part 1/2, (Market Models and Convexity Adjustments)
Financial Engineering Course: Lecture 11/14, part 1/2, (Market Models and Convexity Adjustments)
  • 2022.03.10
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 11- part 1/2, Market Models and Convexity Adjustments▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course ...
 

Financial Engineering-Kurs: Vorlesung 14.11., Teil 2/2, (Marktmodelle und Konvexitätsanpassungen)



Financial Engineering-Kurs: Vorlesung 14.11., Teil 2/2, (Marktmodelle und Konvexitätsanpassungen)

Die Vortragsreihe zum Libor-Marktmodell und seinen Erweiterungen mit stochastischer Volatilität vermittelt ein umfassendes Verständnis des Rahmenwerks des Modells und seiner Anwendungen im Financial Engineering. Der Redner betont, wie wichtig es ist, Maßtransformationen und Dynamiken unter verschiedenen Maßen zu berücksichtigen und geeignete Spot- oder Endmaße auszuwählen. Die logarithmische Normalannahme im Modell wird zusammen mit ihren Einschränkungen und den Herausforderungen beim Umgang mit stochastischer Volatilität diskutiert.

Eines der behandelten Schlüsselthemen ist das Konzept der Konvexitätsanpassungen, die notwendig sind, um Zahlungsverzögerungen oder Inkongruenzen bei Finanzinstrumenten zu berücksichtigen. Der Dozent erläutert die Herausforderungen, die sich bei der Einbeziehung der Libor-Dynamik in die Varianzdynamik ergeben, und diskutiert mögliche Lösungsansätze, wie beispielsweise die Festlegung von Korrelationen zwischen Libor und Volatilität. Der Dozent warnt jedoch davor, dass diese Lösungen möglicherweise nicht realistisch oder nicht gut auf die impliziten Volatilitätsdaten des Marktes abgestimmt sind.

Um diese Herausforderungen anzugehen, stellt der Dozent das Konzept des Displaced Diffusion Stochastic Volatility Model vor, das einen besseren Ansatz für die Modellierung der stochastischen Volatilität im Libor-Marktmodell bietet. Durch die Verwendung eines stochastischen Volatilitätsprozesses und einer Verschiebungsmethode kann das Modell die Verteilung von Prozesswerten ändern und gleichzeitig die Smile- und Skew-Eigenschaften beibehalten. Der Dozent erklärt, wie der durch die Betafunktion gesteuerte Verschiebungsfaktor die Interpolation zwischen Anfangs- und Prozesswert bestimmt. Die Unabhängigkeit des Varianzprozesses wird durch die Annahme einer Nullkorrelation zwischen der Varianz und der Libor-Dynamik erreicht.

Die Vorlesung befasst sich außerdem mit der Implementierung und Kalibrierung des stochastischen Volatilitätsmodells mit verlagerter Diffusion. Der Dozent zeigt, wie man die Dynamik des Modells mit der Darstellung des Mastermodells, einem Sonderfall des Hassle-Modells, verknüpft. Die Vorteile der Verwendung dieses Modells zur Kalibrierung werden diskutiert, wobei die einfache Kalibrierung jedes Libors unter seinem eigenen Maß ohne zusätzliche Driftkorrekturen hervorgehoben wird. Der Dozent beleuchtet außerdem den Einfluss von Beta und Sigma auf die implizite Volatilitätsform und erklärt, wie das Modell zur Preisgestaltung an das Hassle-Modell übergeben werden kann.

Darüber hinaus befasst sich die Vorlesung mit der Frage der Konvexitätsanpassungen im Libor-Marktmodell. Der Dozent erklärt, wie man den Anfangswert und die Volatilität eines stochastischen Volatilitätsprozesses mit verschobener Diffusion anpasst, um der Marktkonvexität Rechnung zu tragen. Eine neue Variable wird eingeführt und es werden ständige Korrekturen und Anpassungen an den Verschiebungs- und Libor-Termen vorgenommen. Der resultierende Prozess ist ein stochastischer Volatilitätsprozess mit verschobener Diffusion, der die Marktkonvexität berücksichtigt.

Die Vorlesungsreihe geht auch auf die Freezing-Technik ein, die zur Fixierung der Stochastik von Variablen und zur Vereinfachung von Modellen eingesetzt wird. Der Dozent warnt jedoch vor den möglichen Fallstricken bei der Verwendung dieser Technik und betont, wie wichtig es ist, das Modell genau auf Marktdaten abzustimmen.

Um die besprochenen Konzepte zu vertiefen, wird die Vorlesungsreihe mit mehreren Hausaufgaben abgeschlossen. Diese Aufgaben umfassen Übungen zur Berechnung von Konvexitätsanpassungen, zur Bestimmung von Korrelationsmatrizen und zur Untersuchung verschiedener Modellspezifikationen.

Die Vortragsreihe bietet eine gründliche Untersuchung des Libor-Marktmodells, seiner Erweiterungen mit stochastischer Volatilität sowie der Herausforderungen und Techniken, die mit der Implementierung und Kalibrierung des Modells für die Preisgestaltung und das Risikomanagement im Zinsbereich verbunden sind.

  • 00:00:00 In diesem Abschnitt der Vorlesung liegt der Schwerpunkt auf dem Bibliotheksmarktmodell und seinen Erweiterungen mit stochastischer Volatilität. Die logarithmische Normalannahme im Modell wird diskutiert und es wird gezeigt, dass ein einfacher und naiver Ansatz zur Handhabung der stochastischen Volatilität zu einem komplexen SDS-System führen kann. Es wird die Einfriertechnik zur Approximation des Modells vorgestellt, ihre Fallstricke und die Probleme, die bei der Anwendung auftreten können, werden vorgestellt. Schließlich werden Konvexitätskorrekturen und -anpassungen sowie die Einbeziehung von Impact Volatility Smile und Skew in die Berechnungen behandelt. Für weitere Einblicke in das Bibliotheksmarktmodell und Konvexitätsanpassungen werden drei Aufgaben vergeben.

  • 00:05:00 In diesem Abschnitt diskutiert der Referent die Dynamik des Prozesses und wendet die notwendigen gemessenen Änderungen auf das Modell an. Sie gehen davon aus, dass die Bibliotheken korreliert sind, was ihrer Meinung nach ein Schlüsselelement ist, und dass der Libor mit der Varianz korreliert. Durch die Annahme einer Nullkorrelation hat das Modell nur ein Lächeln. Anschließend definieren sie das Modell im Hinblick auf unabhängige Brownsche Bewegungen neu, da dies bei der Durchführung gemessener Transformationen praktischer ist. Schließlich ersetzen sie die Definition der Dynamik im Modell und demonstrieren die Dynamik des Libor- und Varianzprozesses nach der Substitution.

  • 00:10:00 In diesem Abschnitt erläutert der Referent die Komplikationen bei der Verwendung von Marktmodellen und Konvexitätsanpassungen im Financial Engineering. Konkret diskutieren sie die Herausforderungen, die sich bei der Einbeziehung der Libor-Dynamik in die Varianzdynamik ergeben. Zwar gibt es potenzielle Lösungen, wie beispielsweise die Einführung von Korrelationen zwischen Libor und Volatilität, diese Lösungen sind jedoch möglicherweise nicht realistisch oder nicht gut auf die impliziten Volatilitätsdaten des Marktes abgestimmt. Daher schlägt der Referent vor, die verschobene Diffusion als alternative Möglichkeit zur Modellierung der stochastischen Volatilität im Libor-Marktmodell zu nutzen.

  • 00:15:00 In diesem Abschnitt diskutiert der Redner das Displaced Diffusion Stochastic Volatility Model, das aufgrund seiner Fähigkeit, wichtige Modellbedingungen zu erfüllen, ein besserer Kandidat für Arbeitsmarktmodelle ist. Das Modell beinhaltet die Verwendung eines stochastischen Volatilitätsprozesses und einer Verschiebungsmethode, um die Verteilung der Prozesswerte zu ändern und gleichzeitig „Smile and Screw“ beizubehalten. Der Referent erklärt, dass der Verschiebungsfaktor durch die Betafunktion gesteuert wird, die die Interpolation zwischen Anfangs- und Prozesswerten bestimmt. Die Unabhängigkeit des Varianzprozesses wird durch die Annahme einer Nullkorrelation zwischen der Varianz und der Glühbirnendynamik erreicht. Das Modell kann verwendet werden, um einen Versatz einzuführen und den Versatz zu kompensieren, der aufgrund der angenommenen Nullkorrelation verloren geht.

  • 00:20:00 In diesem Abschnitt erläutert der Redner, wie die Diffusionsdynamik des Displays mit der Darstellung des Mastermodells verknüpft werden kann, das ein Sonderfall des Hassle-Modells ist. Sie erläutern die Vorteile der Verwendung dieses Modells zur Kalibrierung und wie jeder Libor ohne zusätzliche Driftkorrekturen unter seinem eigenen Maß kalibriert werden kann, was die Bewertung von Derivaten erleichtert. Anschließend zeigt der Redner den Einfluss von Beta und Sigma auf die implizite Volatilitätsform und wie die Einführung des Smile-Prozesses dem Modell genügend Flexibilität verleihen kann, um auf Marktinstrumente kalibriert zu werden. Außerdem besprechen sie kurz die Python-Implementierung und wie man die Display-Diffusion mit der stochastischen Volatilität verknüpft, um das Modell zur Preisgestaltung an das Hassle-Modell zu übergeben.

  • 00:25:00 In diesem Abschnitt der Vorlesung erklärt der Referent, wie man den Anfangswert und die Volatilität eines stochastischen Volatilitätsprozesses mit verschobener Diffusion anpasst, um die Konvexität im Markt zu berücksichtigen. Dazu führen sie eine neue Variable ein und führen ständige Anpassungen der Verschiebungs- und Bibliotheksterme durch. Nach Anwendung der konstanten Korrekturen und Anpassungen wird die Form des neuen Prozesses für v definiert, mit einer neuen Korrektur oder Anpassung für die Varianzen, die mit der Variablen eta-hat behandelt wird. Der resultierende Prozess ist ein stochastischer Volatilitätsprozess mit verschobener Diffusion, der die Marktkonvexität berücksichtigt.

  • 00:30:00 Die Vorlesung befasst sich mit Marktmodellen und Konvexitätsanpassungen, insbesondere mit dem Heston-Modell, das sowohl Smile Skew als auch den Umgang mit Problemen mit Maßen im Libor-Marktmodell ermöglicht. Die Vorlesung behandelt auch die Freezing-Technik, eine Methode zur Korrektur der Stochastik von Variablen und zur Vereinfachung von Modellen. Während diese Technik in manchen Szenarien nützlich sein kann, betont der Dozent, dass sie häufig missbraucht wird und zu ungenauen Ergebnissen führen kann, wodurch das Modell letztendlich unbrauchbar wird.

  • 00:35:00 In diesem Abschnitt des Videos diskutiert der Dozent das Konzept der Konvexitätsanpassung und seine Bedeutung auf den Zinsmärkten. Eine Konvexitätsanpassung ist erforderlich, wenn Zahlungsverzögerungen oder Diskrepanzen zwischen dem Zahlungsdatum eines Vertrags und dem entsprechenden Zähler auftreten. Der Dozent erklärt, dass dies zu Problemen bei der Preisgestaltung führen kann, wenn die Zahlung nicht mit dem Zahlungstermin des zu bewertenden beobachtbaren Vermögenswerts zusammenfällt. Dieses Problem kann jedoch vermieden werden, indem vollständige Monte-Carlo-Modelle verwendet und die Libor-Dynamik simuliert werden. Der Dozent erklärt, dass es wichtig ist, die Vertragsstruktur und die Marktszenarien zu berücksichtigen, bevor Konvexitätsanpassungstechniken eingesetzt werden, die nur dann eingesetzt werden sollten, wenn dies unbedingt erforderlich ist.

  • 00:40:00 In diesem Abschnitt erläutert der Dozent die Herausforderungen, die sich daraus ergeben, sich auf die Zinsstrukturkurve zu verlassen, wenn Zahlungen in einem Finanzinstrument nicht aufeinander abgestimmt sind. Wenn sich das Instrument geringfügig von dem unterscheidet, was auf dem Markt erhältlich ist, muss die Erwartung geschätzt werden, die häufig mit der Konvexität zusammenhängt. Er veranschaulicht dies anhand eines Beispiels, bei dem sich die Zahlung im Vertrag von der auf dem Markt beobachteten unterscheidet, sodass die Erwartung nicht aus der Zinsstrukturkurve berechnet werden kann. Der Dozent zeigt, wie man die Erwartung anhand von Marktobservablen ausdrückt und das Maß auf das Vorwärtsmaß umstellt. Die verbleibende Erwartung ist etwas, was man bisher noch nicht gesehen hat, und die Konvexitätsanpassungsfunktionen oder die Konvexitätskorrektur würden hier ins Spiel kommen. Er betont, dass Marktinstrumente wie Swaps in ihrem natürlichen Maß dargestellt werden, das nicht immer mit dem Maß übereinstimmt, das zur Berechnung der Erwartung verwendet wird.

  • 00:45:00 Der Abschnitt konzentriert sich auf den Umgang mit Begriffen und Erwartungen unter verschiedenen Maßnahmen und den Umgang mit Konvexitätskorrekturen. Der Auszug erklärt, dass der Wechsel von ti minus eins auf ti-Maß dem Zahlungsdatum des Schiebebalkens entsprechen würde. Dies führt jedoch zu einer interessanten Kombination, bei der das Produkt aus Libor und der Nullkuponanleihe kein Martingal ist. Um das Problem neu zu formulieren, schlägt der Abschnitt vor, Libor zu addieren und zu subtrahieren, um den Konvexitätskorrekturterm zu bestimmen und letztendlich die Anpassung zu finden, die erforderlich ist, um im Ausdruck für den Handelswert zum Zeitpunkt t Null Gleichheit zu erzielen.

  • 00:50:00 In diesem Abschnitt erörtert der Dozent die Herausforderungen, die sich daraus ergeben, Simulationen bei der Finanzmodellierung zu vermeiden und stattdessen möglichst einfache Blöcke, insbesondere Ertragsdiagramme, zur Berechnung des Handelswerts zu verwenden. Das Problem bei der Berechnung des Libor dividiert durch Nullkuponanleihen besteht darin, dass es sich nicht um ein Martingal handelt, was sie aufgrund der Quadrate bei Nullkuponanleihen problematisch macht. Um die Wertbewertung eines Handels zu erhalten, muss eine Erwartung unter der T-Forward-Maßnahme ermittelt werden. Der Dozent definiert dann die Dynamik für den Libor und bespricht Lösungen für die Erwartungen des Ausdrucks, die von einem einzelnen Libor abhängen, was die Umsetzung vereinfacht.

  • 00:55:00 In diesem Abschnitt der Vorlesung wird das Konzept der Konvexitätskorrektur in Bezug auf die Dynamik des LIBOR-Marktes und die unbekannte Variable c diskutiert. Es wird darauf hingewiesen, dass die Wahl von Sigma problematisch ist, da es keinen klaren Hinweis auf die Volatilität der gegebenen Erwartung gibt. Die einfachste Möglichkeit bestünde darin, die Volatilität auf der Geldebene zu berücksichtigen, dabei würden jedoch die Auswirkungen des Volatilitätslächelns außer Acht gelassen. Ein Python-Experiment wird vorgestellt, um die Auswirkung einer Sigma-Änderung auf die Konvexitätsanpassung zu veranschaulichen. Dabei wird hervorgehoben, dass das optimale Sigma zur Anpassung an den Markt bei etwa 0,22 liegt. Um das richtige Sigma aus dem Markt zu extrahieren, müssten Finanzingenieure Marktinstrumente untersuchen und Methoden wie den Newton-Raphson-Algorithmus verwenden, um es zu kalibrieren.

  • 01:00:00 In diesem Abschnitt erläutert der Referent die Implementierung des Hull-White-Modells zur Pfadgenerierung und Berechnung der Konvexitätskorrektur. Das Modell berechnet die Nullkuponanleihen für einen bestimmten Zeitraum und berechnet die Erwartung mit einem Over, wobei diese Bibliothek diskontiert wird. Die Monte-Carlo-Pfade werden bis zum Zeitpunkt t1 generiert. Danach können die Bindungen von t1 bis zu jedem zukünftigen Punkt berechnet werden. Der Referent betont, wie wichtig es ist, die Übereinstimmung zwischen den Zinskurven aus dem Markt und der Modellsimulation zu überprüfen und Kennzahlenänderungen beim Umgang mit Konvexitätskorrekturen sicher zu beherrschen. Der Redner erwähnt auch einen alternativen Ansatz, bei dem das implizite Volatilitäts-Smile und -Skew bei der Bewertung der Erwartungen berücksichtigt werden kann, wodurch die Notwendigkeit entfällt, einen bestimmten Sigma-Parameter anzugeben.

  • 01:05:00 In diesem Abschnitt der Vorlesung wird der Brandon-Litzenberger-Ansatz als eine Technik diskutiert, um den Erwartungswert einer Variablen in Bezug auf den Geldwert auszudrücken und dann einen Korrekturterm zu berechnen, der die Integration von Poleingaben von impliziten beinhaltet Volatilitätslächeln basierend auf dem impliziten Volatilitätslächeln. Dieser Ansatz ist leistungsstark, da er die Berechnung aller möglichen Erwartungen ermöglicht und nicht auf der Marktverfügbarkeit eines Sigma-Produkts beruht. Es hängt jedoch von der Verfügbarkeit einer impliziten Volatilitätsoberfläche ab, sodass die Annahme einer logarithmischen Normalverteilung oder einer anderen Art von Verteilung für die Libero-Dynamik effizienter und einfacher sein kann, wenn keine implizite Volatilitätsoberfläche verfügbar ist. Der Vortrag diskutierte auch die beiden Hauptthemen des Tages, nämlich das liberale Marktmodell und mögliche Erweiterungen mit stochastischen Volatilitäts- und Konvexitätskorrekturen.

  • 01:10:00 In diesem Abschnitt der Vorlesung liegt der Schwerpunkt auf dem Beitrag der Äußeren des Modells zur Leckage zwischen verschiedenen Libors, die unter verschiedenen Maßstäben definiert sind, und auf der Schaffung eines einheitlichen Maßes, das zur Bewertung von Derivaten verwendet werden kann, die von mehreren Bibliotheken abhängen. Die Vorlesung befasst sich mit der Dynamik des Libor unter dem P-Maß, dem T-Forward-Maß und den Unterschieden zwischen Terminal- und Spot-Maß. Die Diskussion befasst sich auch mit der stochastischen Volatilität, einschließlich der naiven Herangehensweise an das Problem, der Hinzufügung korrelierter Relativität zur Libor-Dynamik und dem Problem einer komplexen Volatilitätsstruktur. Die Vorlesung endete mit einem Schwerpunkt auf Konvexitätskorrekturen und der Lösung und Spezifikation eines Modells zur Bewertung nichtlinearer Erwartungen. Zu den Hausaufgaben gehören eine algebraische Übung und eine Erweiterung des Heston-Modells, bei dem wir statt eines Volatilitätstreibers zwei haben.

  • 01:15:00 In diesem Abschnitt des Videos weist der Kursleiter drei Hausaufgaben zu, die sich auf Marktmodelle und Konvexitätsanpassungen beziehen. Das erste Problem besteht darin, die Werte von psi bar und den anfänglichen Prozess für zwei gegebene Gleichungen zu finden. Das zweite Problem ist dasselbe wie die Berechnung der Konvexitätsanpassung, jedoch mit der Einführung eines Verschiebungsparameters, um negative Zinssätze auf dem Markt zu bewältigen. Das dritte Problem besteht darin, die Korrelationsmatrix für eine bestimmte Menge von Prozessen zu bestimmen.
Financial Engineering Course: Lecture 11/14, part 2/2, (Market Models and Convexity Adjustments)
Financial Engineering Course: Lecture 11/14, part 2/2, (Market Models and Convexity Adjustments)
  • 2022.03.18
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 11- part 2/2, Market Models and Convexity Adjustments▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course ...
 

Financial Engineering-Kurs: Vorlesung 12/14, Teil 1/3, (Bewertungsanpassungen – xVA)



Financial Engineering-Kurs: Vorlesung 12/14, Teil 1/3, (Bewertungsanpassungen – xVA)

In der Vorlesung wird das Konzept des xVA als Bewertungsanpassung vorgestellt, die für Banken insbesondere im Zusammenhang mit der Preisgestaltung exotischer Derivate von erheblicher Bedeutung ist. Der Dozent befasst sich mit den Feinheiten der Expositionsberechnungen und der potenziellen zukünftigen Exposition und betont deren entscheidende Rolle für ein effektives Risikomanagement. Darüber hinaus untersucht die Vorlesung die erwartete Exposition, die als Verbindung zwischen den zur Expositionsberechnung verwendeten Maßen und vereinfachten Fällen zur Berechnung von xVA dient. Es werden praktische Beispiele zu Zinsswaps, FX-Produkten und Aktien bereitgestellt, und es wird eine Python-Implementierung zum Generieren mehrerer Realisierungsbeispiele aus stochastischen Differentialgleichungen angeboten.

Das Video befasst sich mit dem Bereich des Kontrahenten-Kreditrisikos und seiner Beziehung zu xVA. Es wird erläutert, wie sich die Einbeziehung der Ausfallwahrscheinlichkeit der Gegenpartei auf die Preisgestaltung und Bewertung von Derivaten auswirkt. Während das Konzept der risikoneutralen Messung bereits in früheren Vorträgen diskutiert wurde, wird der Anwendungsbereich nun erweitert und umfasst einen breiteren Rahmen, der Risiken wie die Kreditwürdigkeit der Gegenpartei einbezieht. Um das Konzept des Kontrahenten-Kreditrisikos und seinen Einfluss auf die Preisgestaltung zu veranschaulichen, wird ein einfaches Beispiel eines Zinsswaps vorgestellt.

Im Video wird ein Szenario mit einer Swap-Transaktion besprochen, bei dem es auf dem Markt zu einer Verschiebung kam, die aufgrund eines Anstiegs der Float-Zinssätze zu einem positiven Wert für den Kontrakt führte. Allerdings ist auch die Ausfallwahrscheinlichkeit des Kontrahenten gestiegen, was zu einem „Wrong-Way“-Risiko führt, da sich sowohl das Risiko als auch die Ausfallwahrscheinlichkeit erhöht haben. Das Video betont die Notwendigkeit, dieses zusätzliche Risiko in Bewertungsanpassungen einzubeziehen, worauf in den folgenden Abschnitten näher eingegangen wird.

Der Dozent erläutert die mit Ausfallsituationen verbundenen Risiken und zeigt auf, welche regulatorischen Anforderungen Finanzinstitute berücksichtigen müssen. Das Kontrahentenkreditrisiko (CCR) entsteht, wenn ein Kontrahent seinen Verpflichtungen nicht nachkommt und steht in direktem Zusammenhang mit dem Ausfallrisiko. Wenn die Gegenpartei vor Vertragsablauf ausfällt und die erforderlichen Zahlungen nicht leistet, spricht man vom Issuer Risk (ISR). Solche Zahlungsausfälle können zum Verlust potenzieller künftiger Gewinne führen, wodurch das Finanzinstitut gezwungen wird, erneut in den Swap einzusteigen und sich dadurch weiteren Risiken aussetzt. Insgesamt müssen Finanzinstitute diese Risiken berücksichtigen, da sie die Bewertung von Derivaten erheblich beeinflussen.

Das Video befasst sich mit den Auswirkungen von Ausfallwahrscheinlichkeiten auf die Bewertung von Derivatkontrakten. Der Referent erklärt, dass ein Derivatkontrakt mit einer ausfallgefährdeten Gegenpartei aufgrund des zusätzlichen Risikos, das im Derivatpreis berücksichtigt werden muss, im Vergleich zu einem Vertrag mit einer risikofreien Gegenpartei einen geringeren Wert hat. Die Finanzkrise von 2007 wird als Katalysator für Veränderungen in der Risikowahrnehmung angeführt, darunter auch Veränderungen bei den Ausfallwahrscheinlichkeiten und dem Kreditrisiko der Gegenpartei. Der Zusammenbruch großer Finanzinstitute löste eine weitreichende Ausbreitung des Ausfallrisikos aus, was zu systemischen Risiken im Finanzsektor führte. Als Reaktion darauf intervenierten die Aufsichtsbehörden, um neue Methoden und Vorschriften einzuführen, die darauf abzielten, das Risiko zu minimieren und die Transparenz bei Derivatepositionen sicherzustellen.

Der Professor diskutiert die Auswirkungen von Regulierungen auf exotische Derivate und erläutert, wie diese Derivate aufgrund erhöhter Kapitalanforderungen und Wartungskosten teurer geworden sind. Der Professor erklärt, dass der Verkauf exotischer Derivate auf dem Markt nicht so einfach sei und die Suche nach interessierten Gegenparteien für solche Geschäfte erfordere. Darüber hinaus hat das anhaltende Niedrigzinsumfeld die Attraktivität exotischer Derivate verringert. Allerdings können durch höhere Zinsen die mit der Aufrechterhaltung exotischer Modelle verbundenen Kosten ausgeglichen werden. Der Professor betont, wie wichtig es ist, die Ausfallwahrscheinlichkeit der Gegenpartei in die Preisgestaltung von Finanzderivaten einzubeziehen, was dazu geführt hat, dass einfache Produkte zu exotischen Derivaten geworden sind. Dies erfordert den Einsatz hybrider Modelle zur Preisgestaltung exotischer Produkte und die Ausweitung der Risikomessungen über exotische Derivate hinaus.

Das Video diskutiert die Einbeziehung des Ausfallwahrscheinlichkeitsrisikos in die Preisgestaltung von Finanzderivaten. Um das Risiko zu berücksichtigen, muss die Wahrscheinlichkeit von Ausfällen bei exotischen Derivaten berücksichtigt werden, und den Gegenparteien wird eine zusätzliche Prämie berechnet, die in die risikoneutrale Preisgestaltung integriert ist. Zur Kompensation des Kontrahentenrisikos werden Ausfallwahrscheinlichkeiten in den fairen Preis von Derivaten einbezogen. Aufgrund des mangelnden Vertrauens in das Finanzsystem kam es zu einer Verringerung der Komplexität, was zu einer stärkeren Fokussierung auf die Schätzung und Wartung einfacher Finanzprodukte führte. Das Video befasst sich auch mit verschiedenen Arten von Bewertungsanpassungen, einschließlich der Anpassung der Gegenparteibewertung (CVA), der Anpassung der Finanzierungsbewertung (FVA) und der Anpassung der Kapitalbewertung (KVA), die alle darauf abzielen, das ultimative Ziel einer genauen Preisgestaltung für Finanzderivate zu erreichen.

Anschließend erklärt der Professor, wie Finanzinstitute eine Technik namens Mapping einsetzen, um die Ausfallwahrscheinlichkeiten eines Unternehmens abzuschätzen, selbst wenn keine spezifischen Verträge wie Credit Default Swaps (CDS) als Referenz vorhanden sind. In diesem Abschnitt wird auch das Konzept der Exposures behandelt, wobei die Bedeutung positiver und negativer Exposures im Zusammenhang mit xVA hervorgehoben wird. Der Professor stellt klar, dass der Wert eines Derivats zu einem bestimmten Zeitpunkt, bezeichnet als vt, durch die Expositionen zu einem späteren Zeitpunkt, bezeichnet als g, definiert wird, was das Maximum von vt und Null darstellt. Der Wert von vt unterliegt stochastischen Änderungen basierend auf der Filterung für den Folgetag, und das Risiko stellt den maximalen Geldbetrag dar, der bei einem Ausfall der Gegenpartei verloren gehen kann.

Der Dozent verlagert den Fokus auf Bewertungsanpassungen oder xVAs. Der erste untersuchte Aspekt ist das Risiko, das die Diskrepanz zwischen dem Betrag, den eine Partei schuldet, und dem, was die Gegenpartei bei einer Transaktion schuldet, bezeichnet. Dieses Risiko kann entweder zu Verlusten oder Gewinnen führen, wobei ein maximaler positiver Betrag festgelegt ist. Der Dozent erklärt, dass im Falle eines Ausfalls der Gegenpartei die Verpflichtung zur Zahlung des vollen Betrags bestehen bleibt und die Rückforderung der Mittel von der Qualität der zugrunde liegenden Vermögenswerte abhängt. Darüber hinaus wird das potenzielle zukünftige Risiko als Maß für den maximalen potenziellen Verlust eingeführt, das auf der Grundlage des Worst-Case-Szenarios und unter Berücksichtigung der Verteilung potenzieller Ergebnisse berechnet wird.

Anschließend wird das Konzept der potenziellen zukünftigen Engagements (PFE) als Mittel zur Abschätzung des Extremrisikos eines Portfolios diskutiert. PFE stellt ein Quantil von Engagements dar, das auf der Bewertung eines Portfolios in zukünftigen Realisierungen basiert. Die Vorlesung behandelt auch die Aggregation von Geschäften innerhalb eines Portfolios, entweder auf Vertragsebene oder auf Kontrahentenebene, und hebt die Vorteile des Nettings zum Ausgleich von Risiken hervor. Beim Netting handelt es sich, ähnlich wie bei der Absicherung, um den Erwerb von Gegenverträgen zur Reduzierung von Risiken oder Cashflows.

Anschließend erläutert der Dozent die Vorteile und Grenzen des Nettings und geht dabei ausführlich auf Credit Valuation Adjustments (CVA) ein. Es wird klargestellt, dass nur homogene Geschäfte, die gemäß ISDA-Rahmenverträgen rechtmäßig saldiert werden können, für das Netting genutzt werden können und nicht jedes Geschäft berechtigt ist. Die Rückgewinnungsrate wird zu Beginn des Gerichtsverfahrens festgelegt und hängt vom Wert der Vermögenswerte des insolventen Unternehmens ab. Um die Vorteile des Nettings zu veranschaulichen, wird ein einfaches Beispiel eines Ausfallszenarios vorgestellt, bei dem die durch einen ausfallenden Kontrahenten entstehenden Kosten erheblich reduziert werden können, was dem beteiligten Kontrahenten zugute kommt.

Der Professor geht weiter auf die Auswirkungen des Nettings auf Portfolios und seine rechtlichen Begründungen ein. Nach der Berechnung der Engagements können potenzielle zukünftige Engagements basierend auf der Verteilung oder Realisierung des Portfolios berechnet werden. Der Professor betont, dass die Belichtung die wichtigste Komponente ist, wenn es um xVA und andere Anpassungen geht. Darüber hinaus wird ein interessanter Ansatz zur Berechnung potenzieller zukünftiger Risiken vorgestellt, der die Nutzung des erwarteten Verlusts als Interpretation des erwarteten Risikos beinhaltet.

Der Dozent befasst sich noch einmal mit potenziellen zukünftigen Risiken (Potential Future Exposures, PFE) und betont deren Rolle als Maß für das Extremrisiko. PFE gibt den Punkt an, an dem die Wahrscheinlichkeit von Verlusten das potenzielle zukünftige Risiko übersteigt, wobei der Schwerpunkt ausschließlich auf dem verbleibenden Segment des Extremrisikos liegt. Es wird eine Debatte über die Berechnung des PFE erwähnt, bei der die Frage gestellt wird, ob diese auf dem q-Maß basieren oder anhand historischer Daten im Rahmen des p-Maßes kalibriert werden sollte. Risikomanager ziehen es möglicherweise vor, neben den Markterwartungen für die Zukunft auch in der Vergangenheit eingetretene Szenarien einzubeziehen, um das Extremrisiko effektiv zu berücksichtigen.

Der Referent schließt den Vortrag mit der Diskussion verschiedener Ansätze zur Bewertung und Steuerung von Risiken im Financial Engineering ab. Je nach Ermessen der Risikomanager kommen unterschiedliche Methoden zum Einsatz, etwa die Anpassung von Exposures auf Basis von Marktdaten oder die manuelle Festlegung von Extremszenarien. Die Wahl des Risikomanagementansatzes ist entscheidend, da die eingesetzten Maßnahmen eine wesentliche Rolle bei der Risikobewältigung spielen. Diese Maßnahmen helfen dabei, die Beschränkungen für Händler sowie die Art und Höhe der zulässigen Risiken beim Handel mit Derivaten festzulegen.

Die Vorlesung bietet einen umfassenden Überblick über xVA und seine Bedeutung im Bankensektor, insbesondere bei der Preisgestaltung exotischer Derivate. Es behandelt Risikoberechnungen, potenzielle zukünftige Risiken und erwartete Risiken und hebt deren Bedeutung für das Risikomanagement hervor. Aufgrund ihrer Auswirkungen auf die Derivatebewertung wird die Einbeziehung von Ausfallwahrscheinlichkeiten und Kontrahentenkreditrisiken hervorgehoben. Die Vorlesung befasst sich außerdem mit der Regulierungslandschaft, den steigenden Kosten im Zusammenhang mit exotischen Derivaten und der Verwendung hybrider Modelle zur Preisgestaltung. Als Mittel zur Risikominderung werden Netting und verschiedene Bewertungsanpassungen wie CVA diskutiert. Die Rolle potenzieller zukünftiger Risiken (Potential Future Exposures, PFE) bei der Schätzung des Extremrisikos und die Debatte um die Berechnungsmethodik werden ebenfalls angesprochen. Letztendlich betont die Vorlesung die Bedeutung eines effektiven Risikomanagements im Financial Engineering und die Rolle von Bewertungsanpassungen bei der Preisgestaltung von Finanzderivaten.

  • 00:00:00 In diesem Abschnitt des Financial Engineering-Kurses stellt der Dozent das Konzept des xVA vor, einer Bewertungsanpassung, die für Banken insbesondere im Zusammenhang mit der Preisgestaltung exotischer Derivate wichtig ist. In der Vorlesung werden Expositionsberechnungen und potenzielle zukünftige Expositionen behandelt, die beide für das Risikomanagement von entscheidender Bedeutung sind. Die erwartete Exposition wird ebenfalls besprochen und stellt eine Verbindung zwischen den für die Expositionsberechnungen verwendeten Maßen und vereinfachten Fällen für die Berechnung von xVA her. Die Vorlesung wird auch Beispiele für Zinsswaps, FX-Produkte und Aktien umfassen und eine Python-Implementierung zur Generierung mehrerer Realisierungsstichproben aus stochastischen Differentialgleichungen bereitstellen.

  • 00:05:00 In diesem Abschnitt der Vorlesung wird das Konzept des Kontrahentenkreditrisikos und des xVA vorgestellt. In der Vorlesung geht es darum, wie man die Wahrscheinlichkeit, dass die Gegenpartei ihren Verpflichtungen nicht nachkommt, in die Preisgestaltung von Derivaten einbezieht und wie sich dies auf die Bewertung auswirkt. Das Konzept der risikoneutralen Maßnahme wurde in früheren Vorlesungen diskutiert, doch nun bewegt sich die Vorlesung in einen breiteren Rahmen, der Risiken wie die Kreditwürdigkeit der Gegenpartei einschließt. Die Vorlesung beginnt mit einem einfachen Beispiel eines Zinsswap, um das Konzept des Kontrahenten-Kreditrisikos und seine Auswirkungen auf die Preisgestaltung zu erläutern.

  • 00:10:00 In diesem Abschnitt wird im Video das Szenario einer Swap-Transaktion besprochen, bei der sich der Markt bewegt hat und der Wert des Kontrakts aufgrund eines Anstiegs der Float-Zinssätze positiv geworden ist. Allerdings sind auch die Risiken der Ausfallwahrscheinlichkeit des Kontrahenten gestiegen, was zu einem „Wrong-Way“-Risiko führt, da unser Risiko mit der Wahrscheinlichkeit eines Ausfalls zugenommen hat. Das Video legt die Notwendigkeit nahe, dieses zusätzliche Risiko in unsere Bewertungsanpassungen einzubeziehen, worauf in den folgenden Abschnitten näher eingegangen wird.

  • 00:15:00 In diesem Abschnitt erläutert der Dozent die mit Ausfallsituationen verbundenen Risiken und wie Finanzinstitute aufgrund regulatorischer Anforderungen darüber Rechenschaft ablegen müssen. Unter dem Kontrahentenkreditrisiko (CCR) versteht man die Situation, in der ein Kontrahent seinen Verpflichtungen nicht nachkommt, und ist mit einem Ausfallrisiko verbunden. Wenn die Gegenpartei vor Ablauf des Vertrags ausfällt und nicht alle erforderlichen Zahlungen leistet, spricht man vom Issuer Risk (ISR). Die Nichtzahlung dieser Zahlungen könnte zu einem Verlust möglicher zukünftiger Gewinne führen und das Finanzinstitut müsste den Swap erneut abschließen, was zu weiteren Risiken führt. Insgesamt müssen Finanzinstitute diese Risiken berücksichtigen, da sie sich auf die Bewertung von Derivaten auswirken.

  • 00:20:00 In diesem Abschnitt diskutiert das Video die Auswirkungen von Ausfallwahrscheinlichkeiten auf die Bewertung von Derivatekontrakten. Der Referent erklärt, dass ein Derivatkontrakt mit einem ausfallgefährdeten Kontrahenten aufgrund des zusätzlichen Risikos, das in einen Derivatepreis einbezogen werden muss, weniger wert ist als ein Vertrag mit einem risikofreien Kontrahenten. Die Finanzkrise von 2007 wird als Katalysator für Veränderungen in der Risikowahrnehmung genannt, darunter Veränderungen in den Ausfallwahrscheinlichkeiten und im Kontrahenten-Kreditrisiko. Der Zusammenbruch großer Finanzinstitute löste eine weitreichende Ausbreitung des Ausfallrisikos aus und führte zu systemischen Risiken in der Finanzwelt. Die Aufsichtsbehörden haben eingegriffen und neue Methoden und Vorschriften geschaffen, die darauf abzielen, das Risiko zu minimieren und die Transparenz bei Derivatepositionen sicherzustellen.

  • 00:25:00 In diesem Abschnitt der Vorlesung diskutiert der Professor die Auswirkungen von Regulierungen auf exotische Derivate und wie diese aufgrund des gestiegenen Kapitalbedarfs und der Wartungskosten teurer geworden sind. Er erklärt, dass exotische Derivate nicht einfach auf dem Markt verkauft werden können und dass man eine Gegenpartei finden müsse, die an dieser Art von Handel interessiert sei. Darüber hinaus hat das Niedrigzinsumfeld im Laufe der Jahre dazu geführt, dass Exoten weniger attraktiv geworden sind, aber durch höhere Zinssätze können die mit der Aufrechterhaltung exotischer Modelle verbundenen Kosten ausgeglichen werden. Der Professor betont auch, wie wichtig es ist, die Ausfallwahrscheinlichkeit einer Gegenpartei in die Preisgestaltung von Finanzderivaten einzubeziehen, was dazu geführt hat, dass einfache Produkte zu exotischen Derivaten geworden sind. Dies erfordert den Einsatz hybrider Modelle zur Preisgestaltung exotischer Produkte und zur Preisgestaltung von Risikomaßen über exotische Derivate hinaus.

  • 00:30:00 In diesem Abschnitt wird im Video die Einbeziehung des Risikos von Ausfallwahrscheinlichkeiten in die Preisgestaltung von Finanzderivaten erörtert. Um das Risiko zu berücksichtigen, muss die Wahrscheinlichkeit von Ausfällen bei exotischen Wertpapieren berücksichtigt werden, und den Gegenparteien wird eine zusätzliche Prämie berechnet, die auf eine risikoneutrale Preisgestaltung angerechnet wird. Zur Kompensation des Kontrahentenrisikos werden dem fairen Preis von Derivaten Ausfallwahrscheinlichkeiten hinzugerechnet. Aufgrund des mangelnden Vertrauens in das Finanzsystem ist die Komplexität zurückgegangen und einfache Finanzprodukte sind einfacher einzuschätzen und zu pflegen. Im Video werden auch die verschiedenen Arten von Bewertungsanpassungen erläutert, wie z. B. die Anpassung der Gegenparteibewertung, die Anpassung der Finanzierungsbewertung und die Anpassung der Kapitalbewertung, die zur Erreichung des Endziels der Preisgestaltung von Finanzderivaten verwendet werden.

  • 00:35:00 In diesem Abschnitt der Vorlesung erklärt der Professor, wie Finanzinstitute eine Mapping-Technik verwenden, um die Ausfallwahrscheinlichkeiten eines Unternehmens anzunähern, selbst wenn es keine Verträge wie Credit Default Swaps (CDS) hat, auf die es sich abbilden kann eine bestimmte Ausfallwahrscheinlichkeit. In diesem Abschnitt wird auch das Konzept der Exposures behandelt, wobei die positiven und negativen Exposures für xVA wichtig sind. Der Professor erklärt, dass der Wert der Ableitung zum Zeitpunkt t als Exposition zum Zeitpunkt g definiert ist, der das Maximum vt und dann Null ist. Der Wert von vt ändert sich stochastisch basierend auf der Filterung für morgen, und das Risiko ist der maximale Geldbetrag, der verloren gehen kann, wenn die Gegenpartei ausfällt.

  • 00:40:00 In diesem Abschnitt des Financial Engineering-Kurses bespricht der Dozent Bewertungsanpassungen oder xVAs. Der erste Aspekt ist das Risiko, also die Differenz zwischen den Schulden einer Partei und den Schulden der Gegenpartei bei einer Transaktion. Der Risikobetrag kann zu Verlusten oder Gewinnen führen und es gibt einen maximalen positiven Betrag. Der Dozent erklärt, dass im Falle eines Zahlungsausfalls einer Partei die Verpflichtung zur Zahlung des gesamten Betrags bestehen bleibt und die Rückforderung der Mittel von der Qualität der Vermögenswerte abhängt. Das potenzielle zukünftige Risiko misst den maximalen potenziellen Verlust, der auf der Grundlage des Worst-Case-Szenarios unter Berücksichtigung der Verteilung der Ergebnisse berechnet wird.

  • 00:45:00 In diesem Abschnitt der Vorlesung wird das Konzept der potenziellen zukünftigen Engagements (PFE) als Möglichkeit zur Abschätzung des Extremrisikos eines Portfolios diskutiert. PFE ist ein Quantil von Engagements, das auf dem Wert eines Portfolios basiert und in zukünftigen Realisierungen bewertet wird. In der Vorlesung geht es auch darum, wie man Geschäfte in einem Portfolio zusammenfasst, beispielsweise auf Vertragsebene oder auf Kontrahentenebene, und welche Vorteile das Netting zum Ausgleich von Risiken bietet. Netting ist ein dem Hedging ähnliches Konzept, bei dem gegenläufige Verträge gekauft werden, um Risiken oder Cashflows zu reduzieren.

  • 00:50:00 In diesem Abschnitt des Financial Engineering-Kurses erklärt der Dozent die Vorteile und Grenzen des Nettings und geht ausführlich auf CVA (Credit Valuation Adjustments) ein. Es können nur homogene Geschäfte verwendet werden, die gemäß ISDA-Rahmenverträgen rechtmäßig saldiert werden können, und nicht jedes Geschäft kann saldiert werden. Die Rückforderungsquote wird zu Beginn des Gerichtsverfahrens festgelegt und hängt vom Wert der Vermögenswerte des insolventen Unternehmens ab. Anhand eines einfachen Beispiels eines Ausfallszenarios werden die Vorteile des Netting erläutert, bei dem die Kosten einer ausgefallenen Gegenpartei erheblich gesenkt werden können, was für die Gegenpartei von Vorteil wäre.

  • 00:55:00 In diesem Teil der Vorlesung geht der Professor auf Netting-Effekte auf Portfolios und deren rechtliche Begründung ein. Nach der Berechnung der Engagements können potenzielle zukünftige Engagements basierend auf der Verteilung oder Realisierung des Portfolios berechnet werden. Der Professor betont, dass die Belichtung die wichtigste Zutat ist, wenn es um xVA und andere Anpassungen geht. Darüber hinaus gibt es einen interessanten Ansatz zur Berechnung potenzieller zukünftiger Risiken, bei dem der erwartete Verlust als Interpretation des erwarteten Risikos herangezogen wird.

  • 01:00:00 In diesem Abschnitt der Vorlesung diskutiert der Dozent potenzielle zukünftige Expositionen (PFE) als Maß für das Extremrisiko. PFE stellt dar, dass die Wahrscheinlichkeit von Verlusten das potenzielle zukünftige Risiko übersteigen kann, das nur den verbleibenden Teil des Extremrisikos ausmacht. Der Dozent erwähnt auch eine Debatte darüber, wie PFE berechnet werden sollte, ob sie auf dem Q-Maß oder auf der Kalibrierung unter Verwendung historischer Daten im Rahmen des P-Maßes basieren sollte. Risikomanager ziehen es möglicherweise vor, zusätzlich zu den Markterwartungen für die Zukunft auch in der Vergangenheit eingetretene Szenarien zu berücksichtigen, um das Extremrisiko zu berücksichtigen.

  • 01:05:00 In diesem Abschnitt erörtert der Referent verschiedene Möglichkeiten zur Bewertung und Steuerung von Risiken im Financial Engineering, z. B. die Anpassung von Engagements auf der Grundlage von Marktdaten oder die manuelle Festlegung von Extremszenarien. Die Wahl des Risikomanagementansatzes hängt vom Ermessen des Risikomanagers ab und die verwendeten Maßnahmen sind wichtig für das Risikomanagement, wie z. B. die Festlegung von Beschränkungen für Händler sowie die Art und Höhe der beim Handel mit Derivaten zulässigen Risiken.
Financial Engineering Course: Lecture 12/14, part 1/3, (Valuation Adjustments- xVA)
Financial Engineering Course: Lecture 12/14, part 1/3, (Valuation Adjustments- xVA)
  • 2022.03.24
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 12- part 1/3, Valuation Adjustments- xVA (CVA, BCVA and FVA)▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This ...
 

Financial Engineering-Kurs: Vorlesung 12/14, Teil 2/3, (Bewertungsanpassungen – xVA)



Financial Engineering-Kurs: Vorlesung 12/14, Teil 2/3, (Bewertungsanpassungen – xVA)

Der Dozent vertieft sich weiterhin in das Thema Bewertungsanpassungen (xVA) im Financial Engineering und liefert zusätzliche Beispiele und Erkenntnisse. Sie diskutieren Fälle, in denen erwartete Engagements analytisch berechnet werden können, beispielsweise für Portfolios, die aus einer einzigen Aktie bestehen, und heben die erhöhte Komplexität und optionähnlichen Merkmale hervor, die bei der Berechnung des erwarteten Engagements auftreten. Die Bedeutung von Martingalen, Maßnahmen und Filterungen im Financial Engineering wird ebenfalls hervorgehoben.

In einem Beispiel erklärt der Dozent, wie Filterungen und bedingte Erwartungen verwendet werden, um einen vereinfachten Ausdruck für die erwartete Exposition abzuleiten, der dann diskontiert wird. In einem anderen Beispiel wenden sie Prinzipien aus früheren Vorlesungen an, um den abgezinsten Wert eines Swaps zu einem bestimmten Zeitpunkt zu bestimmen, wobei sie die verfügbaren Cashflows berücksichtigen und die ersteren ausschließen. Diese Beispiele unterstreichen die Bedeutung des Verständnisses und der korrekten Anwendung von Konzepten im Financial Engineering.

Der Dozent greift bisherige Themen noch einmal auf und zeigt deren Zusammenhang mit Wertberichtigungen auf. Am Beispiel eines Devisenswap veranschaulichen sie den Prozess der Maßänderung zum T-Forward-Maß, der zur Abschaffung des inländischen Geldsparkontos führt und nur noch die Nullkuponanleihe der Fremdwährung multipliziert mit dem Nominalwert übrig bleibt. Durch die Nutzung des Devisenterminkurses kann die Erwartung auf eine Termintransaktion vereinfacht werden.

Die Berechnung des erwarteten Risikos in der Landeswährung für einen Swap wird ebenfalls besprochen. Die stochastische Natur der Nullkuponanleihe stellt eine Herausforderung dar, der durch die Verwendung ihrer Definition als Verhältnis des Geldsparkontos begegnet wird. Anschließend wird die Messung vom inländischen neutralen Maß auf das inländische T-Forward-Maß umgestellt, wodurch die Preisgestaltung einer Option anhand des europäischen Optionspreises ermöglicht wird. Durch die Verwendung einer stochastischen Differentialgleichung kann das erwartete Risiko im Rahmen der inländischen Maßnahme durch die Preisgestaltung der Option bestimmt werden. Dieser Prozess umfasst Konzepte wie Zinskapitalisierung und Devisen, die in früheren Vorlesungen besprochen wurden. Der Abschnitt endet mit einem numerischen Experiment in einem eindimensionalen Fall.

Der Redner geht weiter auf die Bewertung von Zinsswaps anhand des Hull-White-Modells ein und drückt die Swap-Bewertung anhand von Nullkuponanleihen aus. Sie betonen, wie wichtig es ist, zukünftige Cashflows für die xVA-Bewertung zu überwachen, da sie dem Ausfallrisiko der Gegenpartei ausgesetzt sind. Der Redner betont den ausgleichenden Effekt der zunehmenden Unsicherheit und der Verringerung des Risikos, das mit zukünftigen Cashflows bei Swaps verbunden ist. Darüber hinaus wird die Bedeutung der Wurzel im Hull-White-Modell für die Integration mehrfarbiger Pfade zur Bewertung von Nullkuponanleihen diskutiert.

Die rechnerischen Herausforderungen bei der Bestimmung des Preises von Nullkuponanleihen werden angesprochen. Die Integration von Pfaden kann rechenintensiv sein, aber die zeitabhängige Funktionsdarstellung des Hull-White-Modells bietet Effizienz durch die Auswertung von Funktionen anstelle der Integration von Pfaden. Dies macht es effizienter für xVA-Simulationen von Belichtungen und VAR-Berechnungen. Es werden numerische Ergebnisse für einen Zinsswap bereitgestellt, die das zunehmende Risikoprofil aufgrund der Volatilität und die eventuelle Verringerung des Risikos durch die Rückzahlung von Cashflows zeigen. Der Wert von Swaps im Zeitverlauf wird auch für einen Ex-Swap mit einer Laufzeit von 20 Jahren dargestellt.

Das Konzept der erwarteten und potenziellen zukünftigen Risiken im Financial Engineering wird diskutiert. Negative erwartete Exposures werden als Volumina definiert und werden signifikant, wenn das Exposure gegen Null geht. Der Referent präsentiert ein Diagramm der positiven und negativen Expositionen und gibt Konfidenzintervalle an. Unter Berücksichtigung der Anzahl der Pfade, Schritte und Parameter für das Hull-White-Modell wird eine Monte-Carlo-Simulation durchgeführt. Die Berechnung des Swap-Werts und des Geldsparkontowerts wird erläutert. Der Abschnitt schließt mit der Betonung der Bedeutung des Konfidenzniveaus für potenzielle zukünftige Risiken.

Die Berechnung des erwarteten Exposures und des diskontierten erwarteten Exposures für einzelne Swaps und Portfolios mit Netting wird erläutert. Der Wert des Swaps wird bereits zu einem bestimmten Zeitpunkt ausgedrückt, sodass keine Abzinsung auf die Gegenwart erforderlich ist. Numerische Ergebnisse aus Monte-Carlo-Simulationen veranschaulichen den potenziellen Wert von Swaps unter verschiedenen Marktszenarien und unterstreichen die Bedeutung der Absicherung zur Risikoreduzierung. Positive Exposures und diskontierte erwartete Exposures aus dem Swap werden mit unterschiedlichem Ausmaß potenzieller zukünftiger Exposures dargestellt. Der Schwerpunkt liegt auf dem Verständnis der Methodik im Hinblick auf die Filterung, da sie einen kohärenten Rahmen zur Simulation von xVA von Expositionen ermöglicht.

Der Redner erörtert außerdem die Auswirkungen von Netting auf die Reduzierung potenzieller zukünftiger Risiken. Das Hinzufügen von Swaps zu einem Portfolio kann bei der Minimierung von Risiken und potenziellen zukünftigen Risiken hilfreich sein. Sie betonen die Notwendigkeit, Hybridmodelle zu verwenden und mehrdimensionale Systeme stochastischer Differentialgleichungen zu konstruieren, wenn Mehrwährungsswaps in verschiedenen Volkswirtschaften simuliert werden. Sie weisen jedoch darauf hin, dass die Bewertung von Portfolios über mehrere Szenarien hinweg zwar aus rechnerischer Sicht günstiger ist, in der Praxis jedoch dennoch zeitaufwändig sein kann.

Die Vorlesung befasst sich mit den Herausforderungen, die mit der Bewertung des xVA einhergehen, insbesondere mit dem Rechenaufwand, der mit der Berechnung der Empfindlichkeit von Engagements gegenüber bestimmten Risikofaktoren oder Marktveränderungen verbunden ist. Sie beleuchten jedoch Techniken, um die Anzahl der Bewertungen zu reduzieren, die zur Annäherung an das gewünschte Profil erforderlich sind. Der Vortrag betont die Bedeutung der Modellauswahl und mehrfacher Bewertungen, insbesondere beim Umgang mit mehreren Währungen und der Bewertung des Risikos zwischen Beginn und Fälligkeit des Handels. Abschließend stellt die Vorlesung die Credit Value Adjustment (CVA)-Reihe als Mittel zur Berücksichtigung der Möglichkeit eines Kontrahentenausfalls bei der risikofreien Preisgestaltung vor.

Die Vorlesung befasst sich weiter mit dem Konzept der Kreditwertanpassung (CVA) bei der Derivatpreisgestaltung unter Berücksichtigung des Ausfallrisikos. Es beginnt mit einem einfachen Szenario, in dem der Ausfall nach der letzten Zahlung des Vertrags eintritt, und liefert eine Formel für die Bewertung des Derivats. Anschließend werden in der Vorlesung komplexere Fälle untersucht, in denen sich die Möglichkeit eines Ausfalls auf die Derivatebewertung auswirkt. Die Notation für Discounted Payoff und das Ziel, die Preise von Derivaten mit und ohne Ausfallrisiko zu verknüpfen, werden eingeführt. Verschiedene Ausfallszenarien und die entsprechenden Beträge, die in jedem Szenario erhalten werden können, werden untersucht, um die notwendige Anpassung der Risikobewertung für den Vertrag zu ermitteln.

Es werden verschiedene Szenarien hinsichtlich des Zeitpunkts von Ausfall- und Wiederherstellungsraten im Umgang mit einer Gegenpartei besprochen. Tritt der Zahlungsverzug vor einem bestimmten Zeitpunkt ein, sind alle Zahlungen bis zu diesem Zeitpunkt eingegangen. Geschieht dies nach Vertragsende, kann der ausstehende Restbetrag eingezogen werden. Tritt jedoch zwischen diesen beiden Zeitpunkten ein Ausfall ein, müssen möglicherweise künftige Verpflichtungen und eine Rückzahlungsquote berücksichtigt werden. Der Referent zeigt, wie man die Erwartung diskontierter zukünftiger Cashflows für vier verschiedene Fälle berechnet und diese mithilfe einer Gleichung verbindet.

Die Vorlesung geht nach der Berechnung der erwarteten Exposition zum nächsten Schritt über, bei dem die Linearität der Erwartung ausgenutzt und in zwei Komponenten aufgeteilt wird. Die erste Komponente umfasst laufzeitabhängige Indikatorfunktionen, die den Kontraktwert vom Zeitpunkt tau bis zum Fälligkeitszeitpunkt t darstellen. Die zweite Komponente berücksichtigt Fälle, in denen Tau größer als die Zeit t oder kleiner als t ist. Da der Vertragswert im Hinblick auf die Filterung messbar ist, stellen die ersten drei Bedingungen unter der Erwartungsfrist den risikofreien Wert des Derivats dar. Der zweite Teil führt eine Anpassung ein, um den konvexen Teil mit einem Maximum und einer Wiederherstellungsrate einzubeziehen, was zur Kreditwertanpassung (CVA) führt. Zusammenfassend kann ein riskantes Derivat als risikofreies Derivat abzüglich der CVA-Anpassung ausgedrückt werden, die der Ausfallwahrscheinlichkeit der Gegenpartei entspricht – ein wesentliches Element in der Beziehung.

Abschließend erläutert der Referent das Konzept der Berechnung des Risikos für jeden Zeitraum bis zur Vertragslaufzeit, der Anpassung an den Ausfall und der entsprechenden Diskontierung aller Cashflows. Die Recovery Rate ist als Verlustquote bei Ausfall definiert und fließt in die Kreditwertanpassungsformel ein.

Die Vorlesung bietet eine umfassende Auseinandersetzung mit Bewertungsanpassungen (xVA) im Financial Engineering. Es behandelt verschiedene Beispiele, rechnerische Herausforderungen und Methoden zur Berechnung von Risiken, erwarteten Risiken und Kreditwertanpassungen. Das Verständnis dieser Konzepte und ihre korrekte Anwendung ist für eine genaue Risikobewertung und Preisgestaltung auf den Finanzmärkten von entscheidender Bedeutung.

  • 00:00:00 In diesem Abschnitt des Vortrags geht der Referent weiter auf das Thema Bewertungsanpassungen (xVA) im Financial Engineering ein. Sie diskutieren Sonderfälle, für die erwartete Exposures analytisch berechnet werden können, etwa für ein Portfolio, das nur aus einer einzigen Aktie besteht. Sie betonen, dass die Exposure-Berechnung im erwarteten Exposure die Komplexität um eine Ebene erhöht und erklären, dass der Wert eines einfachen Vertrags, beispielsweise einer einzelnen Barzahlung, aufgrund dieser erhöhten Komplexität zu einer Option werden kann. Der Abschnitt endet mit einer Erinnerung an die Bedeutung von Martingalen, Maßnahmen und Filterungen im Finanzmanagement.

  • 00:05:00 In diesem Abschnitt geht der Dozent anhand von zwei Beispielen auf die Bewertungsanpassungen (xVA) im Financial Engineering ein. Im ersten Beispiel erklärt er, wie man mit Filterungen und bedingten Erwartungen umgeht, um zu einem einfachen Ausdruck für die erwartete Exposition zu gelangen, die abgezinst wird. Im zweiten Beispiel verwendet er die Prinzipien aus früheren Vorlesungen, um den diskontierten Wert eines Swaps zum Zeitpunkt t zu bestimmen, wobei er die verfügbaren Cashflows berücksichtigt und die ersteren ausschließt. Beide Beispiele verdeutlichen, wie wichtig es ist, die Konzepte im Financial Engineering zu verstehen und richtig anzuwenden.

  • 00:10:00 In diesem Abschnitt der Vorlesung greift der Professor bereits zuvor diskutierte Themen auf und zeigt, wie diese mit dem aktuellen Thema der Wertberichtigungen in Zusammenhang stehen. Er verwendet das Beispiel eines FX-Swaps und durchläuft den Prozess der Änderung der Kennzahl in die T-Forward-Kennzahl. Dies ermöglicht die Kündigung des inländischen Sparkontos und der Nullkuponanleihe, so dass nur noch die Nullkuponanleihe multipliziert mit dem Nominalwert in der Fremdwährung übrig bleibt. Durch die Verwendung des Devisenterminkurses kann die Erwartung auf ein reines Termingeschäft vereinfacht werden.

  • 00:15:00 In diesem Abschnitt erläutert der Redner den Prozess der Berechnung des erwarteten Engagements in der Landeswährung für einen Swap. Die Nullkuponanleihe wird aufgrund ihrer stochastischen Natur nicht messbar. Dieses Problem kann gelöst werden, indem die Definition einer Nullkuponanleihe als Verhältnis des Geldsparkontos verwendet wird. Der nächste Schritt besteht darin, die Messung vom inländischen neutralen Maß auf das T-Forward-Inlandsmaß umzustellen, was die Preisgestaltung einer Option anhand des europäischen Optionspreises ermöglichen würde. Durch die Verwendung einer stochastischen Differentialgleichung kann das erwartete Risiko im Rahmen der inländischen Maßnahme durch die Preisgestaltung der Option bestimmt werden. Der Prozess umfasst mehrere der in früheren Vorlesungen besprochenen Konzepte, wie z. B. Zinskapitalisierung und Devisen. Der Abschnitt endet mit einem numerischen Experiment in einem eindimensionalen Fall.

  • 00:20:00 In diesem Abschnitt erörtert der Redner die Bewertung von Zinsswaps anhand des Hull-White-Modells und wie diese Swap-Bewertung in Bezug auf Nullkuponanleihen ausgedrückt werden kann. Sie erwähnen auch, wie wichtig es ist, zukünftige Cashflows für die Bewertung im xVA zu überwachen, da sie dem Risiko eines Kontrahentenausfalls ausgesetzt sind, und wie sich die gegenläufigen Auswirkungen zunehmender Unsicherheit und verringerter Risiken im Zusammenhang mit zukünftigen Cashflows bei Swaps ausgleichen. Abschließend wird die Wurzel im Hull-White-Modell als entscheidendes Merkmal für die Integration mehrfarbiger Pfade zur Bewertung von Nullkuponanleihen hervorgehoben.

  • 00:25:00 In diesem Abschnitt erörtert der Redner die rechnerischen Herausforderungen bei der Bestimmung des Anleihepreises, der die Integration von Pfaden erfordert und daher sehr rechenintensiv ist. Da das Vollweißmodell jedoch zu einer Art feiner Prozessklasse gehört, kann es als zeitabhängige Funktion dargestellt werden, was es äußerst leistungsfähig macht. Dies bedeutet, dass wir den Wert von Nullkuponanleihen bestimmen können, ohne tatsächlich Pfade zu integrieren, und nur Funktionen auswerten müssen, was die Effizienz für XVA-Simulationen von Engagements und VAR-Berechnungen erhöht. Der Referent liefert numerische Ergebnisse für einen Zinsswap, die zeigen, dass das Risikoprofil aufgrund der Volatilität zunimmt, die Auswirkung der Rückzahlung der Ströme erheblich wird und schließlich auf Null geht. Darüber hinaus zeigt ein Profil für einen Ex-Swap über 20 Jahre den Wert von Swaps im Zeitverlauf.

  • 00:30:00 In diesem Abschnitt der Vorlesung diskutiert der Referent das Konzept der erwarteten Risiken und potenziellen zukünftigen Risiken im Financial Engineering. Das erwartete negative Risiko wird als Volumen definiert und wird signifikant, wenn das Risiko nahezu bei Null liegt. Der Sprecher zeigt ein Diagramm der positiven und negativen Expositionen und gibt die Höhe der Konfidenzintervalle an. Das Experiment beinhaltet eine Spezifikation für die Monte-Carlo-Simulation, einschließlich der Anzahl der Pfade und Schritte sowie Parameter für das gesamte White-Modell. Der Referent erklärt außerdem den Prozess der Berechnung des Wertes eines Swaps und des Geldsparkontos. Der Abschnitt schließt mit der Erörterung der Bedeutung von Konfidenzniveaus für potenzielle zukünftige Risiken.

  • 00:35:00 In diesem Abschnitt geht der Referent auf die Berechnung des erwarteten Exposures und des diskontierten erwarteten Exposures für einzelne Swaps und Portfolios mit Netting ein. Der Wert des Swaps ist bereits zum Zeitpunkt ti ausgedrückt, sodass keine Abzinsung auf den heutigen Tag erforderlich ist. Sie demonstrieren auch die numerischen Ergebnisse von Monte-Carlo-Simulationen, die den potenziellen Wert von Swaps in Abhängigkeit von verschiedenen Marktszenarien und die Bedeutung von Absicherungen zur Risikoreduzierung zeigen. Sie veranschaulichen positive Exposures und die abgezinsten erwarteten Exposures aus dem Swap mit unterschiedlichen Niveaus potenzieller zukünftiger Exposures. Der Redner betont, wie wichtig es ist, die Methodik im Hinblick auf die Filterung zu verstehen, um alle bisher erlernten Blöcke in einem Rahmen zusammenzufassen und so die xVA von Belichtungen einfacher simulieren zu können.

  • 00:40:00 In diesem Abschnitt erörtert der Redner, wie sich Netting auf die Reduzierung potenzieller zukünftiger Risiken auswirken kann und wie das Hinzufügen von Swaps zu einem Portfolio bei der Reduzierung von Risiken und potenziellen zukünftigen Risiken hilfreich sein kann. Es ist wichtig, Hybridmodelle zu verwenden und mehrdimensionale Systeme stochastischer Differentialgleichungen zu erstellen und gleichzeitig Mehrwährungsswaps in verschiedenen Volkswirtschaften zu simulieren. Der Redner warnt auch davor, dass die Monte-Carlo-Simulation zwar aus rechnerischer Sicht relativ kostengünstiger ist, bei der Bewertung von Portfolios in all diesen Szenarien jedoch dennoch zeitaufwändig sein kann.

  • 00:45:00 In diesem Abschnitt erörtert der Redner die Herausforderungen bei der Bewertung von xVA, insbesondere den Rechenaufwand, der sehr hoch sein kann, insbesondere bei der Berechnung der Sensitivität von Engagements gegenüber bestimmten Risikofaktoren oder Marktveränderungen. Es gibt jedoch Techniken, um die Anzahl der Bewertungen zu reduzieren, die erforderlich sind, um dem erforderlichen Profil zu entsprechen. Anschließend befasst sich die Vorlesung mit der Idee von xVA und den verschiedenen Maßen und Techniken, die zur Berechnung der diskontierten Risikoerwartungen für eine Gegenpartei oder ein Portfolio angewendet werden können. Die Bedeutung der Modellauswahl und mehrfacher Bewertungen wird betont, insbesondere wenn es um mehrere Währungen geht und die Risiken zwischen dem Beginn und der Fälligkeit eines Handels bewertet werden. Schließlich wird die Kreditwertanpassungsreihe eingeführt, um die Möglichkeit eines Kontrahentenausfalls bei der risikofreien Preisgestaltung zu berücksichtigen.

  • 00:50:00 In diesem Abschnitt geht es in der Vorlesung um die Kreditwertanpassung (CVA) bei der Derivatpreisgestaltung unter Berücksichtigung des Ausfallrisikos. Die Vorlesung beginnt mit einem einfachen Fall, bei dem der Zeitpunkt des Zahlungsverzugs nach der letzten Zahlung des Vertrags liegt und eine Formel für den Wert des Derivats angegeben wird. Die Vorlesung befasst sich dann mit komplexeren Fällen, in denen die Möglichkeit eines Ausfalls des betrachteten Instituts Auswirkungen auf die Bewertung von Derivaten hat. In der Vorlesung werden außerdem die Notation für diskontierte Auszahlung und das Ziel der Verknüpfung des Derivatpreises, der möglicherweise ausfällt, und des Preises, der möglicherweise nicht ausfällt, vorgestellt. Ausgehend von dieser Konfiguration werden in der Vorlesung anschließend die verschiedenen Szenarien eines möglichen Ausfalls und der Geldbetrag untersucht, der in jedem Szenario erhalten werden kann. Dies wird zur Bestimmung der erforderlichen Anpassung bei der Risikobewertung des Vertrags verwendet.

  • 00:55:00 In diesem Abschnitt diskutiert der Referent verschiedene Szenarien hinsichtlich des Zeitpunkts von Ausfall- und Wiederherstellungsraten im Umgang mit einer Gegenpartei. Tritt der Zahlungsverzug vor einem bestimmten Zeitpunkt ein, sind alle Zahlungen bis zu diesem Zeitpunkt eingegangen. Tritt der Zahlungsverzug hingegen nach der Vertragslaufzeit ein, kann der ausstehende Restbetrag eingezogen werden. Tritt der Ausfall jedoch in der Zwischenzeit ein, kann es zu künftigen Verpflichtungen und einer Rückgewinnungsquote kommen. Anschließend zeigt der Referent, wie man den Erwartungswert der diskontierten Zukunftstabellen für vier verschiedene Fälle berechnet und diese mithilfe einer Gleichung verknüpft.

  • 01:00:00 In diesem Abschnitt bespricht die Vorlesung den nächsten Schritt nach der Berechnung der erwarteten Exposition, bei dem die Linearität der Erwartung verwendet und die Erwartung in zwei Teile geteilt wird. Der erste Teil umfasst Indikatorfunktionen, die von verschiedenen Laufzeiten abhängen und den Wert eines Kontrakts bis zum Zeitpunkt Tau und von Tau bis zum Fälligkeitszeitpunkt t darstellen. Der zweite Teil betrifft Fälle, in denen Tau größer als die Kapitalzeit t oder kleiner als t ist. Der Wert des Vertrags ist im Hinblick auf die Filterung messbar, sodass die ersten drei Bedingungen unter der Erwartungsfrist nur den risikofreien Wert des Derivats darstellen. Der zweite Teil umfasst die Anpassung, um den konvexen Teil mit einem Maximum und einer Rückgewinnungsrate einzubeziehen, was zu einer Kreditwertanpassung oder CVA führt. Im Endeffekt entspricht ein riskantes Derivat einem risikofreien Derivat abzüglich der CVA-Anpassung, die der Ausfallwahrscheinlichkeit einer Gegenpartei entspricht, einem entscheidenden Element in der Beziehung.

  • 01:05:00 In diesem Abschnitt des Videos erklärt der Sprecher das Konzept der Berechnung des Risikos für jeden Zeitraum bis zur Fälligkeit eines Vertrags und der anschließenden Anpassung an den Ausfall und der Abzinsung aller Faktoren. Die Recovery Rate wird als Verlustquote bei Ausfall diskutiert und in der Formel für die Kreditwertanpassung dargestellt.
Financial Engineering Course: Lecture 12/14, part 2/3, (Valuation Adjustments- xVA)
Financial Engineering Course: Lecture 12/14, part 2/3, (Valuation Adjustments- xVA)
  • 2022.03.31
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 12- part 2/3, Valuation Adjustments- xVA (CVA, BCVA and FVA)▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This ...
 

Financial Engineering-Kurs: Vorlesung 12/14, Teil 3/3, (Bewertungsanpassungen – xVA)



Financial Engineering-Kurs: Vorlesung 12/14, Teil 3/3, (Bewertungsanpassungen – xVA)

Während des Vortrags geht der Referent auf die marktüblichen Approximationen ein, die zur Schätzung des Credit Value Adjustment (CVA) verwendet werden, und geht auf die Frage der Symmetrie im Hinblick auf Pseudo-CVA (PCVA) und Volumen-CVA (VCVA) ein. Sie erklären, dass Kundengebühren, die auf Ausfallwahrscheinlichkeiten basieren, unterschiedlich sein können, was eine Hürde für Transaktionen ohne Anpassungen darstellt. Um dieses Problem anzugehen, wird das Konzept der Tiefenwertanpassung (DVA) eingeführt und die Anwendung schwerer Strahlen zur Berechnung der erwarteten Belichtungen erläutert.

Handelsattribute für CVA werden ebenfalls diskutiert, zusammen mit der Bedeutung der Gewichtung von CVA in einem Portfolio, um Additivitätsprobleme zu vermeiden. Abschließend fasst der Referent die Vorlesung zusammen und stellt den Studierenden zwei Übungsaufgaben vor.

Anschließend betont der Redner die Einbeziehung des Risikos in die Preisgestaltung und betrachtet die Recovery Rate bzw. den Verlust bei Ausfall als Konstante. Sie erklären, dass zum Erhalten einer Näherung für die CVA-Korrektur eine gemeinsame Verteilung erforderlich ist, bei der es sich um eine stochastische Größe handelt, die mit dem Zeitpunkt des Ausfalls korreliert. Darüber hinaus werden die Begriffe „Wrong Way Risk“ und „Right Way Risk“ untersucht und ihr Zusammenhang mit der Korrelation zwischen Exposures und Ausfallwahrscheinlichkeiten von Kontrahenten hervorgehoben. Der Redner erwähnt auch die Verfügbarkeit klassischer Online-Artikel, die eine Einführung in Techniken bieten, die zum Erzwingen von Korrelationen bei der Annahme der Unabhängigkeit zwischen zwei Variablen verwendet werden.

Der Professor verlagert seinen Fokus und erörtert den Marktansatz zur Annäherung an bedingte Erwartungen durch erwartete Exposition und betont deren Bedeutung im Kurs. Sie unterteilen die drei Hauptelemente des CVA und betonen, dass der erwartete Risikoanteil der kostspieligste ist. Der Vortrag beleuchtet das Symmetrieproblem im Zusammenhang mit CVA, bei dem die Preise der Gegenparteien aufgrund widersprüchlicher Ansichten über Ausfallwahrscheinlichkeiten unterschiedlich sind und eine Einigung erschwert wird. Um dieses Problem anzugehen, kommt der Dozent zu dem Schluss, dass die bilaterale Kreditwertanpassung (bCVA) untersucht werden muss.

Die bilaterale CVA berücksichtigt das mit dem Ausfall beider Parteien verbundene Risiko und sorgt so für eine symmetrische Preisgestaltung bei Derivaten. Dies bedeutet, dass eine Partei möglicherweise nicht mit dem von der anderen Partei berechneten angepassten Preis einverstanden ist. Beim bilateralen CVA wird die Bonität beider Parteien berücksichtigt und letztlich der faire Preis eines Derivats unter Einbeziehung der jeweiligen Ausfallwahrscheinlichkeiten ermittelt.

Die Diskussion geht dann zu den Bewertungsanpassungen über, die zusammen als xVA bezeichnet werden, und betont die Bedeutung der Einbeziehung von Anpassungen in die Preisgestaltung risikofreier oder ausfallfreier Derivate. Der Dozent erklärt, dass das Bilateral Credit Value Adjustment (BCVA) der Unterschied zwischen CVA und Debit Value Adjustment (DVA) ist. Sie gehen darauf ein, wie der Volumen-CVA (VCVA) steigen kann, was aufgrund des erhöhten Ausfallrisikos eines Unternehmens und der mit steigenden Bewertungen verbundenen Herausforderungen zu einem geringeren CVA-Anteil führt. Es wird die Berechnungsformel für die Anpassung des Finanzierungswerts (FVA) untersucht, die aus der Anpassung der Finanzierungskosten (FCA) und der Anpassung des Finanzierungsvorteils (FBA) besteht. Der Funding Spread (SBE) stellt die Finanzierungskosten für Derivate dar, die typischerweise an die Marktfinanzierungskosten gebunden sind. Die Formel geht davon aus, dass der Risikowert des Portfolios, die Ausfallwahrscheinlichkeiten und der Finanzierungsanteil unabhängig sind. FVA umfasst zwei Arten der Finanzierung: aus dem Unternehmen generierte Mittel und zur Unterstützung bestehender Positionen erforderliche Mittel, die beide in der Liquiditätswertanpassung (LVA) enthalten sind.

Der Redner legt besonderen Wert auf das Verständnis der Risikoprofile von Geschäften innerhalb eines Portfolios oder Nettosatzes. Die Kenntnis der einzelnen Credit Default Adjustments (CDAs) pro Trade erleichtert die Beurteilung der Beiträge von Trades zu Risikoprofilen und ermöglicht eine Risikominderung durch Positionsverkäufe oder die damit verbundene Risikoermittlung. Das Ziel besteht darin, die CVA in einzelne CVAs zu zerlegen, um sie als Summierung der einzelnen CVAs auszudrücken und Einblicke in ihre Rolle bei der CVA-Bewertung zu geben. Obwohl eine inkrementelle CVA durchgeführt werden kann, ist sie rechenintensiv. Ziel ist es daher, eine Zerlegungsmethode zu finden, die eine Übereinstimmung zwischen dem CVA auf Portfolioebene und der Summe der einzelnen CV VAs gewährleistet.

Um die gewünschte Zerlegung von xVA oder erwarteten Engagements in einzelne Beitragszahler zu erreichen und gleichzeitig die Gesamtsumme gleich dem Portfolio-Exposure beizubehalten, führt der Dozent den Euler-Zuteilungsprozess und eine Homogenitätsfunktion ein. Die Funktion f gilt als homogen vom Grad k, wenn k mal f von x gleich der Summe aller Elemente der Ableitung dieser Funktion in Bezug auf jedes einzelne Element des Vektors mal x i ist. Dies ermöglicht die Zerlegung des CVA oder der erwarteten Engagements in die Summe der einzelnen Beiträge, ausgedrückt als Abzinsungsteil und eine glatte Alpha-Komponente. Durch die Verwendung dieses Ansatzes können die erwarteten Belastungen zu jedem einzelnen Zeitpunkt bewertet und berechnet und mit Alpha-Koeffizienten gewichtet werden, um ein glattes Produkt zu erzielen.

Der Dozent hebt die Vorteile der Berechnung der Sensitivität in Bezug auf Alpha i hervor, da sie bei der Bewertung erwarteter Risiken für ein Portfolio weniger Berechnungen ermöglicht. Durch die Neuformulierung der CVAs können die einzelnen CVAs für jeden Handel als Verhältnis ausgedrückt werden und das Derivat kann aus dem erwarteten Risiko berechnet werden, ohne dass die Monte-Carlo-Simulation wiederholt werden muss. Dieser Ansatz ist aus numerischer Sicht vorteilhaft, basiert jedoch auf der Homogenitätsannahme und die Portfoliokombination muss die Bedingung erfüllen.

In der Vorlesung wird außerdem die Erweiterung des Codes für mehrere Dimensionen und Swaps sowie die Berechnung der erwarteten Risiken für mehrere Risikofaktoren wie Inflation und Aktien erörtert. Die Berechnung des CVA umfasst die Berücksichtigung sowohl der Ausfallwahrscheinlichkeit des Kontrahenten als auch unserer eigenen, während das Konzept der Funding Value Adjustments (FVA) eingeführt wird. Der Abschnitt endet mit einer Diskussion über die Zerlegung von XVA in einzelne Risikofaktoren und -zuordnungen.

Für die Hausaufgabe sollen die Studierenden ein Portfolio simulieren, das aus 10 Aktien, 10 Zinsswaps und 5 Call-Optionen besteht. Sie müssen erwartete und potenzielle zukünftige Risiken berechnen und eine CVA-Bewertung durchführen. Darüber hinaus werden die Studierenden gebeten, den Strickeffekt zu diskutieren und Derivate vorzuschlagen, die die erwarteten Risiken reduzieren könnten.

Abschließend stellt der Referent Übungen vor, die darauf abzielen, die Risikoprofile eines Portfolios zu bewerten und Methoden zu deren Reduzierung zu untersuchen. Die erste Übung besteht darin, die erwarteten Risiken eines Swaps zu simulieren und die Swaption-Preisgestaltung mithilfe eines Full-White-Modells zu implementieren, um deren Gleichwertigkeit mit der Swaption-Preisgestaltung zu validieren. Die zweite Übung dient als Plausibilitätsprüfung, um die Korrektheit der Umsetzung sicherzustellen. Die kommende Vorlesung wird sich auf Value at Risk konzentrieren und das in dieser Vorlesung erworbene Wissen nutzen.

Insgesamt behandelte die Vorlesung die Grundlagen der Kreditwertanpassungen, die Simulation erwarteter Exposures, potenzieller zukünftiger Exposures und den Einsatz von Monte-Carlo-Simulationen und Python-Codierung im Prozess.

  • 00:00:00 In diesem Abschnitt des Financial Engineering-Kurses erörtert der Referent die Marktstandardnäherungen zur Schätzung des CVA und geht auf das Problem der Symmetrie mit PCVA und VCVA ein. Sie erläutern, wie sich die auf Ausfallwahrscheinlichkeiten basierenden Kundengebühren unterscheiden können und warum dies dazu führen kann, dass Transaktionen nicht ohne Anpassungen stattfinden können. Das Konzept der DVA oder Tiefenwertanpassung wird vorgestellt und die Anwendung starker Strahlen bei der Berechnung der erwarteten Belichtungen wird erläutert. Der Redner erörtert auch die Frage der Handelszuordnungen für CVA und wie man CVA in einem Portfolio gewichtet, um Additivitätsprobleme zu vermeiden. Abschließend fassen sie die Vorlesung zusammen und stellen den Studierenden zwei Übungsaufgaben zur Verfügung.

  • 00:05:00 In diesem Abschnitt des Vortrags geht der Referent auf die Einbeziehung des Preisrisikos ein und betrachtet die Recovery Rate bzw. den Verlust bei Ausfall als Konstante. Der Sprecher erklärt dann, dass sie eine gemeinsame Verteilung benötigen, um eine Näherung für die CVA-Korrektur zu erhalten, bei der es sich um eine stochastische Größe handelt, die mit dem Zeitpunkt des Ausfalls korreliert. Darüber hinaus erörtert der Referent die Begriffe „Wrong Way Risk“ und „Right Way Risk“ und deren Zusammenhang mit der Korrelation zwischen Exposures und Ausfallwahrscheinlichkeiten von Kontrahenten. Abschließend erklärt der Redner, dass es online verfügbare klassische Artikel gibt, die eine Einführung in die Techniken bieten, die zum Erzwingen von Korrelationen bei der Annahme der Unabhängigkeit zwischen zwei Variablen verwendet werden.

  • 00:10:00 In diesem Abschnitt der Vorlesung diskutiert der Professor den Marktansatz zur Annäherung der bedingten Erwartung durch die erwartete Exposition und betont, dass dies das Hauptinteresse dieses Kurses ist. Anschließend schlüsselt er die drei Hauptelemente auf, aus denen sich CVa zusammensetzt, und erklärt, dass der erwartete Exposure-Teil der teuerste ist. Das Hauptproblem bei CVa ist das sogenannte Symmetrieproblem, bei dem sich die Preise der Gegenparteien aufgrund ihrer widersprüchlichen Ansichten über die Ausfallwahrscheinlichkeiten unterscheiden, was es schwierig macht, eine Einigung zu erzielen. Um dieses Problem anzugehen, so schließt er den Vortrag, müssen wir uns mit der bilateralen Kreditwertanpassung (bCVA) befassen.

  • 00:15:00 Die Perspektive des Kontrahenten wird dieselbe sein, wenn wir bilaterale CVA (Kreditwertanpassung) einbeziehen. Die bilaterale CVA berücksichtigt das Risiko, das mit unserem eigenen Ausfall sowie dem Ausfall des Kontrahenten verbunden ist. Dies bedeutet, dass eine Partei möglicherweise nicht mit dem von der anderen Partei berechneten angepassten Preis einverstanden ist. Der angepasste Wert wird vom Anleger berechnet und ist nicht das Gegenteil des vom Kontrahenten berechneten angepassten Werts. Bilaterale CVA sorgen für eine symmetrische Preisgestaltung von Derivaten unter Berücksichtigung der Kreditwürdigkeit beider Parteien. Der beizulegende Zeitwert eines Derivats wird letztlich durch den bilateralen CVA bestimmt, der die jeweiligen Ausfallwahrscheinlichkeiten beider Parteien berücksichtigt.

  • 00:20:00 In diesem Abschnitt erörtert der Dozent die Bewertungsanpassungen (xVA) und die Bedeutung der Einbeziehung von Anpassungen in die Preisgestaltung des risikofreien oder ausfallfreien Derivats. Sie erklären, wie die bilaterale Kreditwertanpassung (BCVA) die Differenz zwischen der Kreditwertanpassung (CVA) und der Sollwertanpassung (DVA) darstellt. Der Dozent geht auch darauf ein, wie sich der VCVA erhöhen kann, was zu einem geringeren CVA-Anteil führt, da die Zahlungsausfälle eines Unternehmens zunehmen und Probleme mit zunehmenden Bewertungen auftreten. Sie betonen die Bedeutung der Berechnung des erwarteten Risikos, da dies ein entscheidendes Element bei der Berechnung des xVA und der Anpassungen wie der Finanzierungswertanpassung oder FVA ist.

  • Im Abschnitt 00:25:00 wird die Berechnungsformel für FVA untersucht, die aus zwei Teilen besteht: der Anpassung der Finanzierungskosten (fca) und der Anpassung des Finanzierungsvorteils (fba). Der Finanzierungs-Spread stellt die Finanzierungskosten für Derivate dar, ausgedrückt in SBE, und ist in der Regel mit den Kosten für die Beschaffung von Finanzierungen auf dem Markt verknüpft. Die Formel geht davon aus, dass der Risikowert des Portfolios unabhängig vom Finanzierungsanteil ist und dass auch das Risiko und die Ausfallwahrscheinlichkeiten unabhängig sind. Der FVA wird auf Basis der erwarteten Engagements und der geschätzten Ausfallwahrscheinlichkeiten des Marktes berechnet. Darüber hinaus umfasst die FVA zwei Arten der Finanzierung: die aus dem Unternehmen generierten Mittel und die Mittel, die zur Unterstützung bestehender Positionen gezahlt werden müssen. Beide Förderarten sind in der LVA enthalten.

  • 00:30:00 In diesem Abschnitt erklärt der Referent, wie wichtig es ist, die Risikoprofile von Geschäften zu verstehen, wenn es um die Wertanpassungen in einem Portfolio oder Nettosatz geht. Die Kenntnis der einzelnen CDAs pro Trade in einem Portfolio kann dabei helfen, zu beurteilen, welche Trades am meisten zu den Risikoprofilen beitragen, was die Ermittlung damit verbundener Risiken oder sogar den Verkauf von Positionen zur allgemeinen Risikoreduzierung ermöglicht. Das Ziel besteht darin, den Lebenslauf in einzelne Lebensläufe zu zerlegen, um eine Möglichkeit zu finden, ihn als Summierung mit einzelnen Lebensläufen auszudrücken und deren Rolle bei der Bewertung des Lebenslaufs zu verstehen. Es kann auch ein inkrementeller CVA durchgeführt werden, dieser ist jedoch rechenintensiv und das Ziel besteht darin, einen Weg zu finden, den CVA so in einzelne CVAs zu zerlegen, dass sie sowohl auf Portfolioebene als auch in der Summe der einzelnen CVAs übereinstimmen.

  • 00:35:00 In diesem Abschnitt erläutert der Dozent die Methodik der Verwendung des Euler-Zuteilungsprozesses und einer Homogenitätsfunktion, um die gewünschte Zerlegung von xVA oder erwarteten Engagements in einzelne Beitragszahler zu erreichen, die die Gesamtsumme entsprechend dem Portfolio-Exposure erhalten. Die Funktion f heißt homogen vom Grad k, wenn k mal f von x gleich der Summe aller Elemente der Ableitung dieser Funktion zu jedem einzelnen Element des Vektors mal x i ist. Dies ermöglicht die Zerlegung des CVA oder der erwarteten Engagements in die Summe der einzelnen Beiträge, die dann als Abzinsungsteil und eine glatte Alpha-Komponente ausgedrückt werden. Auf diese Weise können die erwarteten Expositionen zu jedem einzelnen Zeitpunkt bewertet und berechnet und mit Alpha-Koeffizienten gewichtet werden, um ein glattes Produkt zu erhalten.

  • 00:40:00 In diesem Abschnitt erörtert der Dozent die Vorteile der Berechnung der Sensitivität in Bezug auf Alpha i und wie sie eine Reduzierung der Berechnungen bei der Bewertung der erwarteten Risiken für ein Portfolio ermöglicht. Durch eine Neuformulierung der CVAs können die einzelnen CVAs für jeden Handel als Verhältnis ausgedrückt und das Derivat aus dem erwarteten Risiko berechnet werden, ohne dass die Monte-Carlo-Simulation erneut durchgeführt werden muss. Dieser Ansatz ist aus numerischer Sicht vorteilhaft, basiert aber immer noch auf der Homogenitätsannahme und die Portfoliokombination muss die Bedingung erfüllen. Insgesamt behandelte die Vorlesung die Grundlagen der Kreditwertanpassungen und die Simulation erwarteter und potenzieller zukünftiger Risiken unter Verwendung von Monte-Carlo-Simulationen und Python-Codierung.

  • 00:45:00 In diesem Abschnitt des Financial Engineering-Kurses erläutert der Dozent, wie man Code für mehrere Dimensionen und Swaps erweitert und erwartete Risiken für mehrere Risikofaktoren, einschließlich Inflation und Aktien, berechnet. Die Vorlesung befasst sich außerdem mit der Berechnung des CVA, einschließlich der Einbeziehung sowohl der Ausfallwahrscheinlichkeit des Kontrahenten als auch unserer eigenen, und stellt Funding Value Adjustments (FVA) vor. Der Abschnitt endet mit einer Diskussion darüber, wie XVA in einzelne Risikofaktoren und Zuschreibungen zerlegt werden kann. Zu den Hausaufgaben gehört die Simulation eines Portfolios mit 10 Aktien, 10 Zinsswaps und 5 Call-Optionen, die Berechnung erwarteter und potenzieller zukünftiger Risiken sowie die Durchführung einer CVA-Bewertung. Darüber hinaus werden die Studierenden gebeten, den Strickeffekt zu diskutieren und Derivate zur Reduzierung der erwarteten Risiken vorzuschlagen.

  • 00:50:00 In diesem Abschnitt des Videos bespricht der Referent Übungen, die helfen, die Risikoprofile eines Portfolios zu bewerten und zu reduzieren, sowie die Bedeutung der Absicherung einer Position durch möglichst wenige zusätzliche Positionen. Die erste Übung besteht darin, die erwarteten Risiken eines Swaps zu simulieren und die Swaption-Preisgestaltung mithilfe eines Full-White-Modells zu implementieren, um zu bestätigen, dass sie der Preisgestaltung einer Swaption entspricht. Die zweite Übung ist eine Plausibilitätsprüfung, um die Korrektheit der Implementierung sicherzustellen. Die nächste Vorlesung wird sich auf Value at Risk konzentrieren und das in dieser Vorlesung erlernte Wissen wiederverwenden.
Financial Engineering Course: Lecture 12/14, part 3/3, (Valuation Adjustments- xVA)
Financial Engineering Course: Lecture 12/14, part 3/3, (Valuation Adjustments- xVA)
  • 2022.04.07
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 12- part 3/3, Valuation Adjustments- xVA (CVA, BCVA and FVA)▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This ...
 

Financial Engineering-Kurs: Vorlesung 13/14, Teil 1/2, (Value-at-Risk und Expected Shortfall)



Financial Engineering-Kurs: Vorlesung 13/14, Teil 1/2, (Value-at-Risk und Expected Shortfall)

Der Dozent erläutert zunächst die Beweggründe für Value-at-Risk-Berechnungen (VaR) und deren Relevanz für das Risikomanagement im Gewinn und Verlust (P&L) eines Portfolios. Der VaR wird als Maß für potenzielle Verluste im Zusammenhang mit Marktschwankungen eingeführt und zielt darauf ab, eine einzige Zahl für das Worst-Case-Szenario über einen bestimmten Zeitraum bereitzustellen. Es wird jedoch betont, dass VaR nicht die einzige Antwort ist und dass Finanzinstitute über ausreichend Kapital verfügen müssen, um geschätzte Verluste aufgrund verschiedener Umweltfaktoren zu decken.

Die Vorlesung behandelt die Berechnung und Interpretation des VaR, einschließlich Stressed VaR und Expected Shortfall. Stressed VaR beinhaltet die Berücksichtigung historischer Daten und Worst-Case-Ereignisse, um Institute auf extreme Marktbewegungen vorzubereiten. Der erwartete Fehlbetrag hingegen berechnet den durchschnittlichen Verlust über dem VaR-Niveau und bietet so einen konservativeren Ansatz für das Risikomanagement. Es wird hervorgehoben, wie wichtig es ist, bei Anlageentscheidungen mehrere VaR-Berechnungen und Diversifikationseffekte einzubeziehen.

Im nächsten Abschnitt lernen die Studierenden die Programmierung einer VaR-Portfoliosimulation mit Python. Der Schwerpunkt der Vorlesung liegt auf der Simulation eines Portfolios mit mehreren Zinsprodukten, dem Herunterladen von Marktdaten für Zinskurven und der Berechnung von Schocks. Die Bedeutung der Diversifizierung und der Berücksichtigung unterschiedlicher VaR-Berechnungen wird erneut betont. Das Segment endet mit einer Zusammenfassung und einer Aufgabe, in der die Schüler den Python-Code erweitern müssen, um den VaR für ein bestimmtes Portfolio bestehend aus Aktien und Zinssätzen zu berechnen.

Die Vorlesung geht auch auf die Akzeptanz und Nutzung des VaR durch Finanzinstitute zur Risikoüberwachung und Kapitaladäquanz ein. Der regulatorische Aspekt wird betont, wobei VaR eingeführt wird, um sicherzustellen, dass Institute Rezessionen oder Marktverkäufen standhalten können. Es wird ein Beispiel für den VaR eines Portfolios bereitgestellt, das auf ein Konfidenzniveau von 95 % hinweist, dass das Portfolio innerhalb eines einzigen Tages nicht mehr als eine Million Dollar verlieren wird.

Darüber hinaus erläutert die Vorlesung die Berechnung des VaR anhand der Verteilung der Portfoliowerte und möglicher Marktszenarien und zieht Parallelen zu früheren Berechnungen von Exposures und potenziellen zukünftigen Exposures. Der Dozent betont die Einfachheit des VaR im Vergleich zu erwarteten Exposures, die nur den absoluten Wert des Risikofaktors berücksichtigen. Es werden verschiedene Ansätze zur VaR-Berechnung erwähnt, wie etwa parametrischer VaR, historischer VaR, Monte-Carlo-Simulation und Extremwerttheorie, wobei der Schwerpunkt auf dem Verständnis ihrer Eigenschaften und Grenzen liegt.

Das Konzept kohärenter Risikomaße wird vorgestellt und die wissenschaftlichen Anforderungen dargelegt, damit ein Risikomaß als gut gilt. Der Vortrag würdigt die Kritik an diesen Anforderungen und beleuchtet die Sicht der Praktiker auf Praktikabilität und Backtesting. Die Anforderung der Subadditivität wird erläutert, wobei betont wird, dass das Risikomaß eines diversifizierten Portfolios kleiner oder gleich der Summe der einzelnen Risikomaße seiner Vermögenswerte sein sollte. Obwohl der VaR kein kohärentes Maß ist, wird er häufig für Risikomanagementzwecke verwendet. Dennoch werden Risikomanager aufgefordert, mehrere Risikomaßnahmen in Betracht zu ziehen, um ein umfassendes Verständnis des Risikoprofils und der Risikobereitschaft ihres Portfolios zu erlangen.

Die Grenzen des VaR als Risikomanagementinstrument werden diskutiert, was zur Einführung des erwarteten Fehlbetrags als konservativere Alternative führt. Der erwartete Fehlbetrag wird als kohärentes Risikomaß dargestellt, das den durchschnittlichen Verlust berücksichtigt, der über dem VaR-Niveau liegt. Indem sie sich auf mehrere Messgrößen wie VaR und erwarteten Fehlbetrag verlassen, können Finanzinstitute ihre Risikominderungsstrategien verbessern und ihre Portfolios effektiv schützen.

Abschließend geht die Vorlesung auf die Einschränkungen von VaR-Berechnungen ein, beispielsweise auf deren Abhängigkeit von Datenqualität und -quantität. Es betont die Bedeutung eines pragmatischen Risikomanagements, bei dem übermäßiger Konservatismus vermieden und gleichzeitig realistische und zuverlässige Maßnahmen gewählt werden.

  • 00:00:00 In diesem Abschnitt des Kurses behandelt der Dozent die Beweggründe für Value-at-Risk-Berechnungen (VaR) und deren Zusammenhang mit den Risiken im Gewinn und Verlust (GuV) eines Portfolios. Die Vorlesung beinhaltet auch eine Erläuterung des gestressten VaR, des erwarteten Defizits und wie diese Maßnahmen in einen kohärenten Risikomanagementplan passen. Im zweiten Block der Vorlesung lernen die Studierenden, wie man eine Simulation eines VaR-Portfolios mit mehreren Zinsprodukten programmiert, Marktdaten für Zinskurven herunterlädt und Schocks berechnet. Der Vortrag betont die Bedeutung eines diversifizierten Portfolios und die Notwendigkeit, bei Anlageentscheidungen mehrere VaR-Berechnungen zu berücksichtigen. Das Segment endet mit einer Zusammenfassung und einer Aufgabe, bei der die Schüler den Python-Code erweitern müssen, um den VaR für ein bestimmtes Portfolio bestehend aus Aktien und Zinssätzen zu berechnen.

  • 00:05:00 In diesem Abschnitt der Vorlesung zum Thema Financial Engineering liegt der Schwerpunkt auf Value-at-Risk (VaR) und Expected Shortfall, mit denen potenzielle Verluste im Zusammenhang mit Marktschwankungen gemessen werden. VaR versucht, eine einzelne Zahl für das Worst-Case-Szenario potenzieller Verluste über einen bestimmten Zeitraum bereitzustellen. Es ist jedoch wichtig zu beachten, dass dies nicht die einzige Antwort ist. Banken müssen über genügend Kapital verfügen, um geschätzte potenzielle Verluste basierend auf Umweltfaktoren abzudecken. In der Vorlesung wird erklärt, wie der VaR anhand der Verteilung der Portfoliowerte und möglicher Marktszenarien berechnet wird, und es wird seine Ähnlichkeit zu früheren Berechnungen von Engagements und potenziellen zukünftigen Engagements aufgezeigt.

  • 00:10:00 In diesem Abschnitt der Vorlesung wird die Bedeutung des Value-at-Risk (VaR) und seine Verwendung durch Finanzinstitute diskutiert. VaR wird verwendet, um Finanzinstituten dabei zu helfen, sich auf Worst-Case-Szenarien vorzubereiten, indem historische Daten und Worst-Case-Ereignisse berücksichtigt werden, damit sie über genügend Kapital verfügen, um ihr Geschäft in Zeiten dramatischer Marktbewegungen aufrechtzuerhalten. VaR wird von den Aufsichtsbehörden vorgeschrieben, um die Überwachung von Positionen und Risiken besser im Auge zu behalten und sicherzustellen, dass Finanzinstitute in Rezessionen oder Marktverkäufen überleben. In der Vorlesung wird auch erklärt, wie VaR-Zahlen berechnet und interpretiert werden. Ein konkretes Beispiel für den VaR eines Portfolios zeigt, dass ein Konfidenzniveau von 95 % dafür besteht, dass das Portfolio innerhalb eines Tages nicht mehr als eine Million Dollar verlieren wird.

  • 00:15:00 In diesem Abschnitt erläutert der Dozent die Idee hinter der Value-at-Risk (VaR)-Methode zur Risikomessung. Beim VaR werden die täglichen Schwankungen der historischen Bewegungen eines zugrunde liegenden Vermögenswerts beobachtet, diese auf den heutigen Wert angewendet und das Portfolio neu bewertet, um die Verteilung von Gewinnen und Verlusten zu bestimmen. Die Methode ist viel einfacher als die in Expected Exposures durchgeführten Berechnungen, bei denen nur der absolute Wert des Risikofaktors berücksichtigt wurde. Der Dozent erklärt, dass VaR seit über 40 Jahren in der Branche akzeptiert ist und es unterschiedliche Ansätze gibt, wie die Berechnungen durchgeführt werden können. Obwohl der VaR eine Schätzung des mit Marktbewegungen verbundenen Risikos liefert, garantiert er nicht das Überleben eines Unternehmens im Falle eines katastrophalen Ereignisses.

  • 00:20:00 In diesem Abschnitt wird das Konzept des Value-at-Risk (VaR) als Maß für das Risiko vorgestellt. Der VaR berechnet den Kapitalbetrag, der zur Unterstützung eines bestimmten Risikoniveaus erforderlich ist. Durch die Hinzufügung von Kapital wird die Verteilung auf die rechte Seite verschoben, wodurch das Risiko verringert wird. Das Konfidenzniveau des VaR wird von den Aufsichtsbehörden festgelegt und eine häufige Anforderung ist ein einseitiges Konfidenzintervall von 99 %. VaR ermöglicht zwar die Einbeziehung von Diversifikationseffekten, kann jedoch problematisch sein. Um die Einschränkungen des VaR zu beheben, werden Verbesserungen wie „Expected Shortfalls“ vorgeschlagen. Darüber hinaus verlangen die Aufsichtsbehörden für die VaR-Berechnung eine Haltedauer von 10 Tagen, es müssen jedoch auch zusätzliche Maßnahmen in Betracht gezogen werden.

  • 00:25:00 In diesem Abschnitt der Vorlesung über Financial Engineering erklärt der Professor, dass die Verteilung der Gewinn- und Verlustverteilung umso breiter wäre, je breiter das Beobachtungsfenster sei. Die Aufsichtsbehörden verlangen eine Haltedauer von 10 Tagen für den Value-at-Risk und mindestens ein Jahr für historische Daten für Marktrisikofaktoren. Das als Svar bekannte Stressszenario beinhaltet die Betrachtung der Marktdaten aus einem gewalttätigen und volatilen Zeitraum in der Vergangenheit. Obwohl die Modellparameter standardisiert sind, müssen Banken bei der Schätzung des Value at Risk nicht genau denselben Ansatz verfolgen. Zu den vier Hauptmethoden zur Berechnung des Value at Risk gehören die parametrische Variable, die historische Variable, die Monte-Carlo-Simulation und die Extremwerttheorie. Der Professor stellt fest, dass sie sich nicht auf die parametrische Var-Methode konzentrieren werden.

  • 00:30:00 In diesem Abschnitt der Vorlesung diskutiert der Dozent verschiedene Ansätze zur Berechnung des Value-at-Risk (VaR) für ein Portfolio. Der erste erwähnte Ansatz ist die parametrische Form, bei der den Renditen des Portfolios eine Verteilung auferlegt wird und Stichproben aus der Verteilung entnommen werden, um das Portfolio zu bewerten. Allerdings ist diese Methode stark voreingenommen, und wenn die Verteilung nicht richtig kalibriert oder für einen bestimmten Risikofaktor geeignet ist, kann sie das Portfolio einem erheblichen Risiko aussetzen. Anschließend wird in der Vorlesung die Monte-Carlo-Simulation erläutert, bei der Risikofaktoren wie Zinssätze mithilfe einer stochastischen Differentialgleichung simuliert und anschließend anhand des Portfolios bewertet werden. Die Monte-Carlo-Simulation kann auf zwei Arten durchgeführt werden: durch Kalibrierung des Modells auf die impliziten Volatilitäten des Marktes oder durch Kalibrierung auf historische Daten unter Verwendung eines beweglichen Fensters beobachtbarer Marktschocks.

  • 00:35:00 In diesem Abschnitt der Vorlesung wird das Konzept kohärenter Risikomaße besprochen, das sich auf die akademischen Anforderungen bezieht, die dafür gelten, dass jedes Risikomaß als gutes Maß angesehen wird. Es gibt jedoch viel Kritik an diesen Anforderungen, da Praktiker argumentieren, dass einige Maßnahmen möglicherweise nicht praktikabel sind und die besten Backtesting-Anforderungen erfüllen. Außerdem wird die Subadditivitätsanforderung erläutert, die sicherstellt, dass das Risikomaß eines diversifizierten Portfolios kleiner oder gleich der Summe der einzelnen Risikomaße dieser Vermögenswerte sein sollte. Obwohl Value-at-Risk (VaR) kein kohärentes Maß ist, wird es von Praktikern immer noch häufig für Zwecke des Risikomanagements verwendet. Risikomanager werden jedoch dazu ermutigt, mehrere Risikomaße in Betracht zu ziehen, um ihr Risikoprofil und ihre Risikobereitschaft besser zu verstehen.

  • 00:40:00 In diesem Abschnitt werden die Anforderungen an eine kohärente Maßnahme besprochen, wobei die erste Anforderung darin besteht, dass die Maßnahme monoton auf das Risiko reagieren sollte. Das heißt, wenn der Value-at-Risk (VaR) steigt, der Expected Shortfall (ES) jedoch bei Diversifizierung oder Absicherung sinkt, dann passiert etwas im Portfolio, das analysiert werden muss. Die zweite Anforderung besteht darin, dass, wenn ein Vermögenswert weniger oder gleich viel wert ist wie ein anderer Vermögenswert, das Risikomaß des ersteren größer oder gleich dem des letzteren sein sollte. Darüber hinaus erläutert der Abschnitt die Einschränkungen von VaR, einschließlich der Tatsache, dass es die Subadditivität nicht erfüllt, was zu falschen Interpretationen in Finanzlösungen führen kann, die VaR verwenden, sich aber nicht bewusst sind, dass es eine gewisse Additivität verletzt.

  • 00:45:00 In diesem Abschnitt behandelt die Vorlesung die Grenzen der Verwendung von Value-at-Risk (VAR) als Risikomanagementinstrument und stellt das Konzept des erwarteten Fehlbetrags als konservativere Alternative vor. Obwohl VAR in der Branche beliebt ist, besteht das potenzielle Risiko, dass das tatsächliche Risikoniveau eines Portfolios falsch dargestellt wird, was dazu führt, dass ein zu hohes Risiko eingegangen wird oder eine Absicherung bei Bedarf nicht durchgeführt wird. Der erwartete Fehlbetrag ist ein kohärentes Risikomaß, das VAR als Eingabe verwendet und den durchschnittlichen Verlust berechnet, der über dem VAR-Niveau liegt, was zu einem konservativeren Ansatz für das Risikomanagement führt. Durch den Rückgriff auf mehrere Messgrößen wie VAR und erwarteter Fehlbetrag können Finanzinstitute Risiken besser mindern und ihre Portfolios schützen.

  • 00:50:00 In diesem Abschnitt erörtert der Referent die Grenzen des Value-at-Risk (VaR) und schlägt einige mögliche Verbesserungen vor. Der Referent weist darauf hin, dass VaR-Berechnungen stark von der Datenqualität und -quantität abhängen, weshalb es wichtig ist, die verwendeten Daten sorgfältig abzuwägen. Darüber hinaus warnt der Referent davor, beim Risikomanagement zu konservativ vorzugehen, da dies zu unrealistischen Maßnahmen führen könne. Vielmehr gilt es, pragmatisch vorzugehen und Maßnahmen zu wählen, die realistisch und zuverlässig sind.
Financial Engineering Course: Lecture 13/14, part 1/2, (Value-at-Risk and Expected Shortfall)
Financial Engineering Course: Lecture 13/14, part 1/2, (Value-at-Risk and Expected Shortfall)
  • 2022.04.14
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 13- part 1/2, Value-at-Risk and Expected Shortfall▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course is ...
 

Financial Engineering-Kurs: Vorlesung 13/14, Teil 2/2, (Value-at-Risk und Expected Shortfall)



Financial Engineering-Kurs: Vorlesung 13/14, Teil 2/2, (Value-at-Risk und Expected Shortfall)

Der Dozent hält einen umfassenden Vortrag über die Durchführung einer Python-Simulation und die Bewertung des historischen Value-at-Risk (VaR) anhand realer Marktdaten für ein Portfolio von Zinsswaps. Die Vorlesung behandelt verschiedene wichtige Themen, darunter den Umgang mit fehlenden Daten, Arbitrage und das Konzept des erneuten Lesens von Zinskurven, um Marktdatenänderungen zur Erstellung von VaR-Szenarien zu berücksichtigen. Außerdem wird die Monte-Carlo-Methode zur VaR-Berechnung sowie der Einsatz von Backtesting zur Beurteilung der Leistung des VaR-Modells erläutert. Zum Abschluss der Vorlesung wird den Studierenden eine Aufgabe gestellt, in der sie aufgefordert werden, die historische VaR-Implementierung durch die Einführung eines zusätzlichen Risikofaktors zu implementieren oder zu verbessern und über eine Risikodiversifizierung in ihrem Portfolio nachzudenken.

Das Konzept des Value-at-Risk (VaR) wird vom Dozenten ausführlich erläutert. VaR wird verwendet, um eine Verteilung potenzieller Gewinne und Verluste (P&L) in einem Portfolio auf der Grundlage historischer Bewegungen von Risikofaktoren vorherzusagen oder abzuleiten. Um stabile Ergebnisse zu gewährleisten, bleibt das Portfolio konstant und historische Bewertungen von Risikofaktoren dienen als Input für VaR-Berechnungen. Der Dozent betont die Bedeutung der Einbeziehung aller relevanten Risikofaktoren in die Berechnungen und erwähnt, dass die Länge des Zeitfensters und das Konfidenzniveau angegeben werden können. Darüber hinaus beabsichtigt der Dozent, den Einfluss unterschiedlicher Zeitfensterlängen auf die Verteilung des GuV-Profils in einem Python-Experiment zu analysieren.

Im anschließenden Abschnitt befasst sich der Dozent mit der Abschätzung potenzieller Verluste, die ein Portfolio innerhalb eines Tages erleiden kann. Der Dozent betont die Bedeutung realistischer Risikofaktoren und nutzt historische Daten und beschreibt, wie tägliche Veränderungen der Risikofaktoren auf das heutige Niveau angewendet werden können, um die Bandbreite möglicher Ergebnisse und die Verteilung wahrscheinlicher Verluste über einen Zeitraum zu bestimmen. Es wird betont, dass eine wirksame Risikokontrolle und -steuerung über die bloße Einhaltung regulatorischer Auflagen hinaus für die Absicherung des Instituts unerlässlich ist. Darüber hinaus erklärt der Dozent, dass die Berechnung des VaR und die Verwaltung eines Portfolios aus einfachen Derivaten vergleichsweise einfacher sind als der Umgang mit Zinsprodukten, die die Konstruktion von Zinskurven für jedes Szenario erfordern.

Anschließend erläutert der Dozent die Schritte zur Preisgestaltung eines Zinsportfolios und zur Berechnung des Value-at-Risk (VaR) und des erwarteten Fehlbetrags. Die Erstellung einer Zinsstrukturkurve für jedes Szenario ist dabei eine wesentliche Rechenaufgabe. Es wird ein Experiment beschrieben, bei dem ein Swap-Portfolio über einen Zeitraum von 160 Tagen anhand historischer Daten zu täglichen Renditekurven von Staatsanleihen bewertet wird. Durch die Berechnung täglicher Schocks und die anschließende Rekonstruktion der Zinskurven können der Wert, der VaR und der erwartete Fehlbetrag des Portfolios ermittelt werden. Der Dozent erwähnt, dass dieses Vorgehen auf der vorherigen Behandlung der Zinskurvenkonstruktion in einer früheren Vorlesung beruht. Ziel des Experiments ist es, die Verteilung potenzieller Profilverluste mit 95 %-Konfidenzintervallen zu beobachten.

Die Vorlesung behandelt die Berechnung des Quantils für den VaR und den Erwartungswert der linken Seite dieses Quantils, der dem erwarteten Fehlbetrag entspricht. Außerdem wird der Aufbau eines Portfolios unter Verwendung von Nullkuponanleihen und die Bewertung von Swaps mit unterschiedlichen Konfigurationen, Zinssätzen, Nominalwerten und Einstellungen besprochen. Darüber hinaus befasst sich die Vorlesung mit der Berechnung der Zinsstrukturkurve auf Basis historischer Daten und dem iterativen Prozess zur Gewinnung der für Zinskurvenanpassungen in allen Szenarien erforderlichen Schocks.

Anschließend erläutert der Redner die Nutzung historischer Daten zur Abschätzung potenzieller Zinskurvenbewegungen. Diese Einschätzung möglicher Szenarien ist für das Risikomanagement wertvoll, wenn andere Informationen nicht verfügbar sind. Szenarien können auch manuell vorgegeben werden, beispielsweise durch eine Regulierungsbehörde. Der Referent geht außerdem auf die Untersuchung von Risikoprofilen auf Basis historischer Daten und den Umgang mit Sonderfällen im Umgang mit sich ändernden Instrumenten ein. Der Prozess der schockierenden Marktwerte und der Rekonstruktion der Renditekurven für jedes Szenario wird erläutert, gefolgt von der Bewertung des Portfolios für jede erstellte Kurve. Abschließend erläutert der Redner die Methodik zur Schätzung des erwarteten Defizits auf der Grundlage von Beobachtungen am Ende der Verteilung.

Der Referent gibt Einblicke in die Ergebnisse, die durch die Ausführung von Code zur Berechnung der Gewinn- und Verlustverteilung (P&Ls) sowie des Value-at-Risk (VaR) und des erwarteten Fehlbetrags erzielt werden. Die Gewinn- und Verlustverteilung weist eine vertraute Form mit Ausläufern an beiden Enden auf und die Mehrheit der Werte liegt bei etwa zehntausend. Der VaR wird mit minus siebentausend berechnet, was eine Wahrscheinlichkeit von fünf Prozent angibt, dass die morgigen Verluste diesen Betrag übersteigen werden. Andererseits wird der erwartete Fehlbetrag auf minus 16.000 geschätzt, was fast dem Doppelten der Auswirkung der VaR-Berechnung entspricht. Der Redner betont die Bedeutung konsistenter und qualitativ hochwertiger Marktdaten für die Durchführung genauer historischer VaR-Berechnungen. Die Hausaufgabe besteht darin, die Funktion um zusätzliche Risikofaktoren wie Aktien zu erweitern und das gleiche Experiment zu wiederholen.

Außerdem erklärt der Dozent, wie man mit fehlenden Marktdaten in Finanzberechnungen umgeht, insbesondere wenn es um Instrumente geht, denen aktive Handels- oder marktimplizierte Werte fehlen. Der Prozess umfasst die Erstellung einer Kurve zur Interpolation fehlender Daten auf der Grundlage verfügbarer Instrumente, wobei auch Delta-Einschränkungen und Volatilitäten berücksichtigt werden. Der Dozent unterstreicht die Bedeutung der Nutzung marktverfügbarer Instrumente im Risikomanagement und der Etablierung von Datenqualitätsstandards für VaR- und Expected-Shortfall-Berechnungen. Darüber hinaus wird das Problem negativer Volatilitäten angesprochen und Einblicke in Methoden zur Bewältigung solcher Ereignisse gegeben.

Der Referent bespricht zwei Arten von Arbitrage, nämlich Kalenderarbitrage und Schmetterlingsarbitrage. Kalenderarbitrage findet in der Zeitdimension statt, während Schmetterlingsarbitrage sich mit Streiks befasst. Der Referent erklärt, wie die Butterfly-Strategie die Ableitung zweiter Ordnung einer Call-Option in Bezug auf den Strike annähert, was der Dichte einer Aktie entspricht. Die Anwendung inkonsistenter Schocks auf die heutige Volatilitätsoberfläche kann jedoch Arbitragemöglichkeiten und negative Volatilität mit sich bringen, was Risiken birgt. Auch die Interpolation von Volatilitäten stellt Herausforderungen dar, insbesondere im Zusammenhang mit VaR-Berechnungen. Der Referent stellt VaR-Berechnungen vor, die auf der Monte-Carlo-Simulation basieren und auf historische Daten oder Marktinstrumente kalibriert werden können. Die Simulation wird mithilfe von Monte Carlo durchgeführt und das Modell wird entweder mit dem P- oder dem Q-Maß verknüpft, je nachdem, ob es auf historische Daten oder Marktinstrumente kalibriert wird.

Der Referent erläutert weiter, wie die Monte-Carlo-Simulation zur Bewertung eines Portfolios eingesetzt werden kann. Durch die Simulation von Szenarien für ein kurzfristiges Zinsmodell und die Anwendung von Schocks oder Differenzen auf Tages- oder 10-Tages-Basis kann das Portfolio über verschiedene Szenarien hinweg bewertet werden. Die Monte-Carlo-Simulation bietet mehr Freiheitsgrade und ein breiteres Spektrum an Szenarien, als wenn man sich ausschließlich auf historische Daten verlässt. Für die Verbesserung des Risikomanagements ist die Generierung einer großen Anzahl möglicher Szenarien von entscheidender Bedeutung. Der Redner räumt ein, dass bestimmte Auswahlmöglichkeiten innerhalb der Methodik noch einer weiteren Untersuchung bedürfen, aber insgesamt dient der Ansatz als unkompliziertes Mittel zur Veranschaulichung der Monte-Carlo-Simulation.

Der Redner betont, dass die Neubewertung eines Portfolios in jedem Szenario rechenintensiv sein kann, insbesondere bei großen Portfolios, die aus komplexen derivativen Wertpapieren bestehen. Dieser Prozess wird zum bestimmenden Faktor für die Anzahl der Szenarien, die generiert werden können, was bei größeren Portfolios zu weniger Szenarien führt. Um die Bewertung des täglichen Value-at-Risk (VaR) zu veranschaulichen, zeigt der Referent, wie er eine 10-Tage-Differenz zwischen den Zinssätzen nimmt, das Portfolio berechnet, die Ergebnisse in einer Matrix speichert und das Quantil und den erwarteten Fehlbetrag für ein gegebenes Alpha schätzt von 0,05. Die Ergebnisse deuten darauf hin, dass der erwartete Fehlbetrag doppelt so groß ist wie der VaR, was die Bedeutung eines effektiven Risikomanagements für die Minderung erheblicher Verluste unterstreicht.

Die Vorlesung befasst sich mit dem Thema Backtesting für Value-at-Risk (VaR). Beim Backtesting werden die prognostizierten Verluste aus dem VaR mit den realisierten Gewinnen und Verlusten (P&L) verglichen, die aus realen Marktdaten abgeleitet werden. Durch die tägliche Durchführung dieser Analyse über einen bestimmten Zeitraum, typischerweise ein Jahr oder 250 Geschäftstage, kann die Qualität des VaR-Modells beurteilt und potenzielle Probleme wie fehlende Risikofaktoren oder schlecht kalibrierte Modelle identifiziert werden. Es ist jedoch zu beachten, dass Backtesting eine rückwärtsgerichtete Maßnahme ist und volatile Ereignisse in zukunftsgerichteten Situationen möglicherweise nicht genau vorhersagen kann. Um die Qualität des Backtestings zu verbessern, kann der Einsatz von Monte-Carlo-Simulationen und die Kalibrierung mit Marktdaten in Betracht gezogen werden.

Das Video betont die Bedeutung des Ausgleichs mehrerer Modelle bei der Schätzung des Value at Risk (VaR) und erörtert die Wahl zwischen der Verwendung historischer Daten und stochastischen Prozessen. Die Kalibrierung des Modells auf den Markt kann zusätzliche Informationen liefern, die über das hinausgehen, was ausschließlich aus historischen Daten abgeleitet wird. Der Referent erklärt außerdem, dass Backtesting-Ergebnisse eine entscheidende Rolle bei der Beurteilung der Leistung eines Modells spielen. Indem man die Vorhersagen des Modells mit einem bestimmten Signifikanzniveau vergleicht, kann man feststellen, ob das Modell gut oder schlecht abschneidet. Der Vortrag schließt mit einer Zusammenfassung der Hauptpunkte der VaR-Diskussion und der Betonung der Bedeutung der Berücksichtigung des erwarteten Fehlbetrags in Bezug auf den VaR.

Darüber hinaus gibt der Redner eine Zusammenfassung des zweiten Teils der Vorlesung, der sich auf praktische Themen wie den Umgang mit fehlenden Daten, Arbitrage und die Verwendung der Monte-Carlo-Simulation zur VaR-Berechnung konzentrierte. Der Redner betont, wie wichtig es ist, ein umfassendes Verständnis der verschiedenen VaR-Maßnahmen zu erlangen, um die Gesundheit und den Status eines Portfolios effektiv zu überwachen. Die gegebene Hausaufgabe verlangt von den Schülern, ein Portfolio mithilfe historischer Wertzinsberechnungen zu erweitern, einen zusätzlichen Risikofaktor wie eine Aktie oder eine Devisen einzubeziehen und über eine Diversifizierung von Derivaten nachzudenken, um die Varianz zu verringern. Der Redner schließt den Vortrag mit einer Zusammenfassung der wichtigsten Erkenntnisse ab, einschließlich der Berechnung des VaR und der verschiedenen VaR-Messwerte, die zur Abschätzung der mit potenziellen Marktbewegungen verbundenen Risiken verwendet werden.

Die Vorlesung bietet wertvolle Einblicke in die Durchführung von Python-Simulationen und die Bewertung des historischen Value-at-Risk (VaR) auf Basis realer Marktdaten für ein Portfolio. Es behandelt wichtige Themen wie den Umgang mit fehlenden Daten, Arbitrage, das erneute Lesen von Zinskurven und die Verwendung der Monte-Carlo-Simulation für VaR-Berechnungen. Der Vortrag betont auch die Bedeutung des Backtestings zur Validierung von VaR-Modellen und die Bedeutung der Berücksichtigung des erwarteten Defizits zusätzlich zum VaR. Durch die Erforschung dieser Konzepte und die Bearbeitung der zugewiesenen Aufgaben können Studierende ein umfassendes Verständnis des Risikomanagements und der Portfoliobewertung im Finanzkontext entwickeln.

  • 00:00:00 In diesem Abschnitt des Financial Engineering-Kurses erläutert der Dozent, wie man eine Python-Simulation durchführt und den historischen Value-at-Risk (VaR) basierend auf realen Marktdaten für ein Portfolio von Zinsswaps bewertet. Die Vorlesung behandelt den Umgang mit fehlenden Daten, Arbitrage und die Konzepte des erneuten Lesens von Zinskurven im Kontext von Marktdatenänderungen zur Generierung von Szenarien für VaR-Berechnungen. Besprochen wird auch die Monte-Carlo-Methode zur VaR-Berechnung sowie das Backtesting zur Leistungsüberprüfung des VaR-Modells. Die Vorlesung endet mit einer Aufgabe, die von den Studierenden verlangt, die historische VaR-Implementierung um einen zusätzlichen Risikofaktor zu implementieren oder zu erweitern und über die Diversifizierung der Risiken in ihrem Portfolio nachzudenken.

  • 00:05:00 In diesem Abschnitt erklärt der Dozent das Konzept des Value-at-Risk (VaR) und wie es verwendet wird, um die potenziellen Gewinne und Verluste (P&L) in einem Portfolio auf der Grundlage möglicher Möglichkeiten vorherzusagen oder auszuschütten historische Bewegungen von Risikofaktoren. Das Portfolio wird konstant gehalten, um stabile Ergebnisse zu erzielen, und die historischen Bewertungen der Risikofaktoren werden als Input für den VaR verwendet. Der Dozent betont, wie wichtig es ist, alle relevanten Risikofaktoren in die VaR-Berechnungen einzubeziehen. Die Länge des Zeitfensters und das Konfidenzniveau können ebenfalls angegeben werden. Der Dozent plant, den Einfluss der Länge des Zeitfensters auf die Verteilung des GuV-Profils im Python-Experiment zu analysieren.

  • 00:10:00 In diesem Abschnitt erläutert der Dozent den Prozess der Schätzung potenzieller Verluste, die ein Portfolio an einem Tag erleiden kann. Der Dozent betont, wie wichtig es ist, realistische Risikofaktoren im Portfolio zu haben und historische Daten zu nutzen, um tägliche Änderungen auf dem heutigen Niveau der Risikofaktoren durchzusetzen. Durch die Anwendung dieser Änderungen wird es möglich, zu bestimmen, was möglich ist, sowie die Verteilung der angebotenen Wahrscheinlichkeit und der Verlustverteilung über einen Zeitraum. Der Dozent betont, dass es wesentlich ist, Risiken zu kontrollieren und zu steuern und das Institut zu schützen, und nicht nur die regulatorischen Bedingungen zu erfüllen. Abschließend wird in der Vorlesung erläutert, dass ein Portfolio aus einfachen Derivaten viel einfacher zu berechnen ist als Zinsprodukte, die die Konstruktion ganzer Zinskurven für jedes Szenario erfordern.

  • 00:15:00 In diesem Abschnitt des Videos bespricht der Dozent die Schritte, die erforderlich sind, um ein Zinsportfolio zu bewerten und den Value-at-Risk (VaR) und den erwarteten Fehlbetrag zu berechnen. Dazu muss für jedes Szenario eine Zinskurve erstellt werden, was rechenintensiv sein kann. Anschließend skizziert der Dozent ein Experiment, bei dem er ein Swap-Portfolio über einen Zeitraum von 160 Tagen anhand historischer Daten zu täglichen Renditekurven von Staatsanleihen bewertet. Durch die Berechnung täglicher Schocks und die anschließende Neukonstruktion der Renditekurven können sie das Portfolio bewerten und den VaR und den erwarteten Fehlbetrag berechnen. Der Dozent weist darauf hin, dass dieser Prozess auf der Konstruktion einer Zinsstrukturkurve beruht, die in einer früheren Vorlesung behandelt wurde. Ziel des Experiments ist es, die Verteilung möglicher Profilverluste mit 95 %-Konfidenzintervallen zu ermitteln.

  • 00:20:00 In diesem Abschnitt des Financial Engineering-Kurses wird das Thema Value-at-Risk und Expected Shortfall behandelt. Die Vorlesung behandelt die Berechnung des Quantils für VAR und dann den erwarteten Wert der linken Seite dieses Quantils, der den Verlust des erwarteten Fehlbetrags darstellt. Die Vorlesung behandelt auch den Aufbau eines Portfolios unter Verwendung von Nullkuponanleihen und die Bewertung von Swaps mit unterschiedlichen Konfigurationen, Zinssätzen, Nominalwerten und Einstellungen. Darüber hinaus wird in der Vorlesung die Berechnung der Zinsstrukturkurve auf der Grundlage historischer Daten und die Iteration über alle Szenarien diskutiert, um die Schocks zu ermitteln, die auf die Zinsstrukturkurve angewendet werden müssen.

  • 00:25:00 In diesem Abschnitt erklärt der Referent, wie man historische Daten nutzt, um die möglichen Bewegungen einer Zinskurve abzuschätzen. Diese Einschätzung möglicher Szenarien stellt einen Mehrwert für das Risikomanagement dar, ohne dass andere Informationen verfügbar sind. Szenarien können auch manuell vorgegeben werden, beispielsweise durch eine Regulierungsbehörde. Der Referent erläutert außerdem den Umgang mit unterschiedlichen Maßnahmen bei der Betrachtung von Risikoprofilen auf Basis historischer Daten und den Umgang mit Sonderfällen im Umgang mit sich ändernden Instrumenten. Der Prozess der Schockanalyse der Marktwerte und der Rekonstruktion der Renditekurven für jedes Szenario wird erläutert, gefolgt von der Bewertung des Portfolios für jede zuvor erstellte Kurve. Abschließend erläutert der Redner die Methodik hinter der Schätzung des erwarteten Defizits auf der Grundlage von Beobachtungen am Ende der Verteilung.

  • 00:30:00 In diesem Abschnitt des Kurses „Financial Engineering“ bespricht der Referent die Ergebnisse der Ausführung eines Codes zur Berechnung der Gewinn- und Verlustverteilung sowie des Value-at-Risk (VaR) und des erwarteten Fehlbetrags. Die Verteilung der Gewinne und Verluste zeigt eine vertraute Form mit Ausläufern an beiden Enden und der Mitte bei 10.000. Der VaR wird mit minus siebentausend berechnet, mit einer Wahrscheinlichkeit von fünf Prozent, dass die Verluste morgen größer sein werden. Der erwartete Fehlbetrag beträgt minus sechzehntausend, was fast dem Doppelten der Auswirkung der VaR-Berechnung entspricht. Der Redner betont außerdem, wie wichtig es ist, bei der historischen VaR-Berechnung über konsistente und qualitativ hochwertige Marktdaten zu verfügen. Die Hausaufgabe besteht darin, die Funktion um zusätzliche Risikofaktoren wie Aktien zu erweitern und das gleiche Experiment durchzuführen.

  • 00:35:00 In diesem Abschnitt erläutert der Dozent den Umgang mit fehlenden Marktdaten in Finanzberechnungen, insbesondere bei Instrumenten, die nicht aktiv gehandelt oder vom Markt impliziert werden. Der Prozess der Kurvenerstellung kann zur Interpolation fehlender Daten basierend auf verfügbaren Instrumenten verwendet werden, es müssen jedoch zusätzliche Kriterien wie Delta-Beschränkungen und Volatilitäten berücksichtigt werden. Der Dozent weist außerdem darauf hin, wie wichtig es ist, marktverfügbare Instrumente im Risikomanagement zu nutzen und Datenqualitätsstandards für Var- und Expected-Shortfall-Berechnungen festzulegen. Darüber hinaus erörtert er das Problem negativer Volatilitäten und bietet Einblicke in Methoden zur Bewältigung solcher Ereignisse.

  • 00:40:00 In diesem Abschnitt diskutiert der Redner zwei Arten von Arbitrage – eine in Richtung der Zeit, die als Kalenderarbitrage bezeichnet wird, und die andere in Richtung der Streiks, die als Schmetterlingsarbitrage bezeichnet wird. Sie erklären, wie die Butterfly-Strategie die Ableitung zweiter Ordnung einer Call-Option in Bezug auf den Strike annähert, was der Dichte einer Aktie entspricht. Die Anwendung inkonsistenter Schocks auf die heutige Volatilitätsoberfläche kann jedoch zu Arbitrage und negativer Volatilität führen, was riskant sein kann. Auch die Interpolation von Volatilitäten stellt eine Herausforderung dar und erfordert Aufmerksamkeit, insbesondere im Fall von VAR-Berechnungen. Anschließend stellt der Redner VAR-Berechnungen vor, die auf der Monte-Carlo-Simulation basieren und entweder auf historische Daten oder auf Marktinstrumente kalibriert werden können. Die Simulation wird mit Monte Carlo durchgeführt und das Modell ist entweder mit dem P- oder dem Q-Maß verknüpft, je nachdem, ob es auf historische Daten oder Marktinstrumente kalibriert ist.

  • 00:45:00 In diesem Abschnitt der Vorlesung zum Thema Financial Engineering diskutiert der Referent die Verwendung der Monte-Carlo-Simulation zur Bewertung eines Portfolios. Durch die Simulation von Szenarien für ein Short-Rate-Modell und die Anwendung von Schocks oder Differenzen auf Tages- oder 10-Tages-Basis kann das Portfolio anhand verschiedener Szenarien bewertet werden. Durch den Einsatz der Monte-Carlo-Simulation stehen mehr Freiheitsgrade und mehr Szenarien zur Verfügung als bei historischen Daten. Zur Verbesserung des Risikomanagements ist es wichtig, möglichst viele mögliche Szenarien zu generieren. Der Referent erklärt, dass es immer noch viele Fragezeichen hinsichtlich spezifischer Entscheidungen gebe, aber insgesamt sei die Methodik ein unkomplizierter Ansatz zur Veranschaulichung der Monte-Carlo-Simulation.

  • 00:50:00 In diesem Abschnitt erklärt der Referent, dass die Neubewertung eines Portfolios in jedem Szenario rechenintensiv ist, insbesondere bei großen Portfolios, die aus komplexen derivativen Wertpapieren bestehen. Dieser Prozess wird zum limitierenden Faktor bei der Bestimmung der Anzahl der Szenarien, die generiert werden können, und daher können für größere Portfolios weniger Szenarien generiert werden. Der Referent demonstriert außerdem den Prozess der Bewertung des täglichen Value-at-Risk (VaR) anhand einer 10-Tage-Differenz zwischen den Zinssätzen. Anschließend berechnen sie das Portfolio, speichern es in einer Matrix und schätzen das Quantil und den erwarteten Fehlbetrag für Alpha 0,05. Die Ergebnisse zeigen, dass der erwartete Fehlbetrag doppelt so groß ist wie der VaR, was die Bedeutung des Risikomanagements bei der Reduzierung großer Verluste zeigt.

  • 00:55:00 In diesem Abschnitt der Vorlesung wird das Thema Backtesting für Value-at-Risk (VaR) besprochen. Die Hauptidee des Backtestings besteht darin, zu überprüfen, ob Ihr VaR-Modell Verluste genau vorhersagt, indem Sie die prognostizierten Verluste aus dem VaR mit dem realisierten Gewinn und Verlust (P&L) aus den realen Marktdaten vergleichen. Dies erfolgt täglich über einen bestimmten Zeitraum, in der Regel ein Jahr oder 250 Werktage. Backtesting kann dabei helfen, die Qualität des VaR-Modells zu beurteilen und potenzielle Probleme wie fehlende Risikofaktoren oder schlecht kalibrierte Modelle zu identifizieren. Backtesting ist jedoch eine rückwärtsgerichtete Maßnahme und sagt keine volatilen Ereignisse in zukunftsgerichteten Situationen voraus. Der Einsatz von Monte-Carlo-Simulationen und die Kalibrierung mit Marktdaten können die Qualität des Backtestings potenziell verbessern.

  • 01:00:00 In diesem Abschnitt wird im Video erläutert, wie wichtig es ist, mehrere Modelle auszubalancieren, wenn es um die Schätzung des Value at Risk (VaR) und die Verwendung historischer Daten im Vergleich zu stochastischen Prozessen geht. Durch die Kalibrierung auf den Markt erhält man möglicherweise mehr Informationen als Vorhersagen, die nur auf historischen Daten basieren. Das Video erklärt außerdem Backtesting-Ergebnisse und wie sie dabei helfen können, anzuzeigen, ob ein Modell durch Überschreiten eines bestimmten Signifikanzniveaus schlecht oder gut abschneidet. Abschließend fasst der Vortrag die Hauptpunkte der VaR-Diskussion zusammen und erwähnt die Bedeutung der Berücksichtigung des erwarteten Fehlbetrags in Bezug auf den VaR.

  • 01:05:00 In diesem Abschnitt fasst der Redner den zweiten Teil der Vorlesung zusammen, der sich auf praktische Themen wie fehlende Daten, Arbitrage und Monte-Carlo-Simulation zur VAR-Berechnung konzentrierte. Der Redner betont außerdem, wie wichtig es ist, einen guten Überblick über verschiedene VAR-Maßnahmen zu haben, um die Gesundheit und den Status eines Portfolios zu überwachen. Die gegebene Hausaufgabe erfordert die Erweiterung eines Portfolios mithilfe historischer Wertzinsberechnungen und die Hinzufügung eines Risikofaktors wie einer Aktie oder einer Devisenwährung. Die Zuordnung erfordert auch die Berücksichtigung einer Diversifizierung von Derivaten zur Reduzierung der Varianz. Der Redner schließt den Vortrag mit einer Zusammenfassung der wichtigsten Erkenntnisse ab, einschließlich der Berechnung des VAR und der verschiedenen VAR-Maße, die zur Schätzung der mit möglichen Marktbewegungen verbundenen Risiken verwendet werden.
Financial Engineering Course: Lecture 13/14, part 2/2, (Value-at-Risk and Expected Shortfall)
Financial Engineering Course: Lecture 13/14, part 2/2, (Value-at-Risk and Expected Shortfall)
  • 2022.04.28
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 13- part 2/2, Value-at-Risk and Expected Shortfall▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course is ...
 

Kurs „Financial Engineering“: Vorlesung 14/14 (Zusammenfassung des Kurses)



Kurs „Financial Engineering“: Vorlesung 14/14 (Zusammenfassung des Kurses)

Der Referent schließt den Kurs „Financial Engineering“ mit einer Zusammenfassung der 14 Vorträge ab, die ein breites Themenspektrum abdeckten. Zu diesen Themen gehörten Filterungen und Maßänderungen, Zinsmodelle, Zinskurvendynamik, Preisgestaltung von Swaptions, Hypotheken und Vorauszahlungen, stochastische Differentialgleichungen, Marktmodelle sowie Bewertung und historische VAR-Anpassungen. Ziel des Kurses war es, den Lernenden ein umfassendes Verständnis des Financial Engineering zu vermitteln und sie mit den Fähigkeiten auszustatten, ihre eigenen Derivatportfolios umzusetzen.

Während des Vortrags betont der Referent die Bedeutung des Verständnisses von Filterungen und Maßnahmen sowie der Durchführung von Simulationen zur Portfoliobewertung und zum Risikomanagement. Die Vorteile bedingter Erwartungen bei der Preisgestaltung von Optionen und der Reduzierung der Modellkomplexität werden zusammen mit dem Konzept der Änderung von Maßen und Techniken zur Dimensionsreduzierung diskutiert. Die Vorlesung behandelt auch das AJM-Framework von Arbitrage-freien Kurzzinsmodellen und zwei abgeleitete Modelle, HJM und Hull-White, mit Simulationen zum Vergleich von Zinskurven, die als Eingabe und Ausgabe des Modells verwendet werden. Darüber hinaus werden die Dynamik der Zinskurve bei kurzfristigen Zinssätzen und die Beobachtung des Fed-Fund-Zinssatzes in Experimenten untersucht.

In einem anderen Abschnitt konzentriert sich der Redner auf die Beziehung zwischen der Dynamik der Zinskurve und Short-Rate-Modellen in Python-Simulationen. Er befasst sich mit der Motivation hinter der Entwicklung eines Zwei-Faktor-Vollmodells als Erweiterung des Ein-Faktor-Modells zur Erfassung der Renditekurvendynamik. Zinsprodukte wie Swaps, Forward Trade Agreements und Volatilitätsprodukte werden diskutiert und ihre Bedeutung für die Kalibrierung an Marktdaten hervorgehoben. Die Vorlesung befasst sich auch mit der Konstruktion von Zinskurven, einschließlich Interpolationsroutinen und Mehrfachkurven, und wie sich diese Faktoren auf die Absicherung und das Portfoliorisiko auswirken. Auch die Preisgestaltung von Swaptions und die Herausforderungen durch Negativzinsen werden thematisiert.

Die letzten Vorlesungen des Kurses werden zusammengefasst und behandeln Themen wie die Preisgestaltung von Optionen mithilfe des Jamshidian-Tricks, negative Zinssätze und die verschiebungsartige, normal verschobene implizite Volatilität. Diskussionen zu Hypotheken, Hybridmodellen, Vorauszahlungsrisiken, großen Zeitschrittsimulationen, Wechselkursen und Inflation sind ebenfalls enthalten. Es wird hervorgehoben, wie wichtig es ist, risikoneutrale und reale Messungen, beobachtete Marktmengen und die Kalibrierung von Modellparametern zu verknüpfen.

Darüber hinaus wird die Anwendung von Financial Engineering auf mehrere Anlageklassen untersucht, darunter Zinssätze, Aktien, Devisen und Inflation. Die Herausforderungen, die mit Modellen wie dem Heston-Modell, Konvexitätskorrekturen und dem Arbeitsmarktmodell für die Preisgestaltung exotischer Derivate verbunden sind, werden diskutiert. Der Kurs konzentriert sich auch auf Veränderungsmaße und erweitert das Standardmodell des normalen Verleumdungsmarktes um die Einbeziehung der stochastischen Volatilität. Das Hauptziel ist die Berechnung von xVA und Value at Risk unter Berücksichtigung der Exposure-Berechnung, der Portfoliokonstruktion und der Python-Codierung zur Bewertung des Exposure-Gewinns in einem Swap-Portfolio. Der Redner erwähnt auch die Bedeutung der Anpassung der Kreditbewertung (CVA) basierend auf der Ausfallwahrscheinlichkeit der Gegenpartei und die praktischen Anwendungen von xVA.

In der abschließenden Zusammenfassung gibt der Dozent einen Rückblick auf die Vorlesung zum Thema Value at Risk. Historischer Value-at-Risk, Stress-Value-at-Risk, Monte-Carlo-basierter Value-at-Risk und erwartete Fehlbeträge wurden sowohl aus theoretischer Sicht als auch anhand praktischer Experimente unter Einbeziehung von Marktdaten und Monte-Carlo-Berechnungen diskutiert. Der Vortrag ging auch auf das Konzept des Backtestings zur Beurteilung der Qualität von Value-at-Risk-Berechnungen ein. Der Dozent bringt seine Zufriedenheit mit dem Kurs zum Ausdruck und gratuliert den Zuschauern zum Abschluss, wobei er den praktischen und lohnenden Charakter des behandelten Materials anerkennt.

  • 00:00:00 In diesem Abschnitt fasst der Referent den gesamten Financial Engineering-Kurs bestehend aus 14 Vorlesungen zusammen. Der Kurs behandelte verschiedene Themen, darunter Filterungen und Maßänderungen, Zinsmodelle, Renditekurvendynamik, Preisgestaltung von Swaptions, Hypotheken und Vorauszahlungen, stochastische Differentialgleichungen, Marktmodelle sowie Bewertung und historische VAR-Anpassungen. Der Redner betont, wie wichtig es ist, Filterungen und Maßnahmen zu verstehen, Simulationen durchzuführen und Risikomanagementtechniken für die Portfoliobewertung zu implementieren. Insgesamt ermöglichte der Kurs den Lernenden, ihre eigenen Derivatportfolios zu implementieren.

  • 00:05:00 In diesem Abschnitt erörtert der Redner, wie wichtig es ist, die Zusammensetzung und Risiken eines Portfolios zu einem bestimmten Zeitpunkt durch Filtermessungen und Simulationen zu verstehen. Die Vorlesung behandelt die Vorteile bedingter Erwartungen bei der Preisgestaltung von Optionen und die Reduzierung der Modellkomplexität sowie sich ändernde Maßnahmen und Techniken zur Dimensionsreduzierung. Der Kurs behandelt auch das AJM-Framework von Arbitrage-freien Kurzzinsmodellen und zwei abgeleitete Modelle, HJM und Hull-White, mit Simulationen zum Vergleich von Zinskurven, die als Eingabe und Ausgabe des Modells dienen. Darüber hinaus behandelt die Vorlesung die Dynamik der Zinskurve bei kurzfristigen Zinssätzen und die Beobachtung des Fed-Fund-Zinssatzes in Experimenten.

  • 00:10:00 In diesem Abschnitt diskutiert der Redner die Beziehung zwischen der Dynamik der Zinskurve und Short-Rate-Modellen in Python-Simulationen. Sie untersuchen die Motivation hinter der Entwicklung eines Zwei-Faktor-Vollmodells als Erweiterung des Ein-Faktor-Modells zur Erfassung der Renditekurvendynamik. Sie umfassen auch Zinsprodukte wie Swaps, Forward Trade Agreements und Volatilitätsprodukte, die für die Kalibrierung anhand von Marktdaten von entscheidender Bedeutung sind. Darüber hinaus befassen sie sich mit der Konstruktion von Zinskurven, einschließlich Interpolationsroutinen und Mehrfachkurven, und wie sie sich auf die Absicherung und das Portfoliorisiko auswirken. Der Referent beendet diesen Vortrag mit einer Diskussion des Konzepts der Preisgestaltung von Swaptions und der Problematik der Negativzinsen.

  • 00:15:00 In diesem Abschnitt fasst der Referent die Abschlussvorlesungen des Kurses „Financial Engineering“ zusammen, in denen Themen wie die Preisgestaltung von Optionen und die Anwendung von Jamshidians Trick, Negativzinsen und verschiebungsartige, normal verschobene implizite Volatilität behandelt wurden. Die Vorlesungen 8 und 9 befassten sich mit Hypotheken bzw. Hybridmodellen und beinhalteten Diskussionen zu vorzeitigen Rückzahlungsrisiken und großen Zeitschrittsimulationen. Die zehnte und letzte Vorlesung befasste sich mit Devisen und Inflation und beinhaltete Konzepte wie Cross-Currency-Swaps und die Preisgestaltung von FX-Optionen. Die Vorträge lieferten Einblicke in die Verknüpfung risikoneutraler und realer Kennzahlen, beobachtete Marktmengen und die Bedeutung der Kalibrierung für Modellparameter.

  • 00:20:00 In diesem Abschnitt diskutiert der Redner die Anwendung von Financial Engineering zur Abdeckung mehrerer Anlageklassen, darunter Zinssätze, Aktien, Devisen und Inflation. Sie untersuchen auch die Herausforderungen, die sich aus dem Heston-Modell, der Einbeziehung von Konvexitätskorrekturen und dem Arbeitsmarktmodell ergeben, das für die Preisgestaltung exotischer Derivate nützlich ist. Im Laufe des Kurses untersuchten die Studierenden Veränderungsmaße, wie zum Beispiel den Unterschied zwischen Tamriel- und Spot-Maßen, und erweiterten das Standardmodell des normalen Verleumdungsmarktes um die Einbeziehung der stochastischen Volatilität. Das primäre Ziel des Kurses ist die Berechnung von xVA und des Value at Risk. Der Referent untersucht die Berechnung des Exposures, den Aufbau von Portfolios und die Codierung in Python zur Bewertung des Exposure-Gewinns für ein Swap-Profil. Das ultimative Ziel besteht darin, die Kreditbewertungsanpassung (CVA) basierend auf der Wahrscheinlichkeit des Ausfalls einer Gegenpartei abzuleiten und die praktischen Anwendungen von xVA zu untersuchen.

  • 00:25:00 In diesem Abschnitt des Transkripts fasst der Dozent die Abschlussvorlesung des Financial Engineering-Kurses zusammen, in der es um Value at Risk ging. Der Vortrag behandelte historische Value-at-Risk, Stress-Value-at-Risk, Monte-Carlo-basierter Value-at-Risk und erwartete Defizite. Die theoretischen Aspekte und die Motivation hinter diesen Techniken wurden im ersten Block der Vorlesung diskutiert, während der zweite Teil eine Reihe von Experimenten umfasste, darunter historische Var-Berechnungen für Marktdaten und Monte-Carlo-Var-Berechnungen. Der Vortrag ging auch auf das Backtesting ein, mit dem die Qualität von Avar-Berechnungen gemessen wird. Insgesamt kommt der Dozent zu dem Schluss, dass der Kurs lohnend und praktisch war, und gratuliert den Zuschauern zum Abschluss.
Financial Engineering Course: Lecture 14/14, (The Summary of the Course)
Financial Engineering Course: Lecture 14/14, (The Summary of the Course)
  • 2022.05.20
  • www.youtube.com
Financial Engineering: Interest Rates and xVALecture 14, The Summary of the Course▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬This course is based on the book:"Ma...
 

Fragen und Antworten zu Computational Finance, Band 1, Einführung



Fragen und Antworten zu Computational Finance, Band 1, Einführung

Willkommen auf diesem Kanal! In dieser Videoreihe biete ich eine Reihe von 30 Fragen und Antworten basierend auf dem Kurs Computational Finance an. Die Fragen in diesem Kurs sind nicht nur als Prüfungsfragen nützlich, sondern auch als potenzielle Interviewfragen für Quant-Jobs. Die Folien und Vorlesungsmaterialien für diesen Kurs finden Sie über die Links in der Beschreibung dieser Videos. Der Kurs besteht aus 14 Vorlesungen und behandelt Themen wie Aktien, Stochastik, Preisgestaltung von Optionen, implizite Volatilitäten, Sprünge, Feindiffusionsmodelle, stochastische Volatilität und Preisgestaltung exotischer Derivate.

Für jede Vorlesung habe ich zwei bis vier Fragen vorbereitet und auf jede Frage gebe ich Ihnen eine ausführliche Antwort. Diese Antworten können je nach Komplexität der Frage zwischen zwei und 15 Minuten dauern. Die von mir vorbereiteten Fragen decken eine Vielzahl von Themen ab, von globalen Fragen zu verschiedenen Anlageklassen bis hin zu spezifischeren Fragen zum Heston-Modell und zeitabhängigen Parametern.

In Vorlesung 1 beginnen wir mit einfachen Fragen zu Preismodellen für verschiedene Anlageklassen und dem Zusammenhang zwischen Geldsparkonten und Nullkuponanleihen. Vorlesung 2 behandelt die implizite Volatilität, die Preisgestaltung von Optionen mithilfe der arithmetischen Brownschen Bewegung und den Unterschied zwischen stochastischen Prozessen und Zufallsvariablen. Vorlesung 3 konzentriert sich auf die Feynman-Kac-Formel, eine berühmte Formel in der Computerfinanzierung, und darauf, wie man Plausibilitätsprüfungen für simulierte Aktien durchführt. Vorlesung 4 befasst sich mit impliziten Volatilitätstermstrukturen, den Mängeln des Black-Scholes-Modells und möglichen Lösungen für diese Mängel.

Vorlesung 5 behandelt Sprungprozesse, einschließlich der Eto-Tabelle und ihrer Beziehung zu Poisson-Prozessen, implizite Volatilität und Sprünge sowie charakteristische Funktionen für Modelle mit Sprüngen. Schließlich behandelt Vorlesung 6 stochastische Volatilitätsmodelle, einschließlich des Heston-Modells und zeitabhängiger Parameter.

Wenn Sie mehr über diese Themen erfahren möchten, schauen Sie sich die Playlist mit Vorträgen auf diesem Kanal an.

Computational Finance Q&A, Volume 1, Introduction
Computational Finance Q&A, Volume 1, Introduction
  • 2023.01.03
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 0/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online course...
 

Können wir dieselben Preismodelle für verschiedene Anlageklassen verwenden?



Können wir dieselben Preismodelle für verschiedene Anlageklassen verwenden?

Im heutigen Computational-Finance-Kurs ging es um die Frage, ob die gleichen Preismodelle für verschiedene Anlageklassen verwendet werden können. Bei der Frage geht es im Wesentlichen darum, ob eine stochastische Differentialgleichung, die erfolgreich auf eine Anlageklasse, beispielsweise Aktien, angewendet wurde, auch für die Modellierung anderer Anlageklassen verwendet werden kann. Im Kurs haben wir verschiedene Anlageklassen untersucht, darunter Aktien, Optionen, Zinssätze, börsengehandelte Rohstoffe, außerbörsliche Strommärkte und mehr. Ziel war es herauszufinden, ob Modelle, die für eine Anlageklasse entwickelt wurden, effektiv auf andere angewendet werden können.

Die kurze Antwort auf diese Frage lautet: Grundsätzlich ist es möglich, dasselbe Preismodell für verschiedene Anlageklassen zu verwenden, dies ist jedoch nicht immer der Fall. Bei der Entscheidung, ob ein Modell auf eine andere Anlageklasse angewendet werden kann, sind mehrere Kriterien zu berücksichtigen. Das erste und wichtigste Kriterium ist, ob die Dynamik des Modells mit den physikalischen Eigenschaften des interessierenden Vermögenswerts übereinstimmt. Wenn ein Modell beispielsweise positive Werte annimmt, ist es möglicherweise nicht für Vermögenswerte wie Zinssätze geeignet, die negativ sein können.

Ein weiteres Kriterium ist, wie die Modellparameter geschätzt werden können. Stehen Optionsmärkte oder historische Daten zur Kalibrierung zur Verfügung? Es ist wichtig zu beachten, dass ein Modell, selbst wenn es einen Optionsmarkt gibt, wie das Black-Scholes-Modell, möglicherweise nicht immer gut mit dem impliziten Volatilitätslächeln oder -versatz des Marktes übereinstimmt. Daher ist es wichtig zu beurteilen, ob das Modell mit der Anlageklasse und den spezifischen Preisanforderungen übereinstimmt. Wenn beispielsweise eine europäische Option mit einem einzigen Basispreis und einer Laufzeit bewertet wird, kann ein einfacheres Modell wie Black-Scholes ausreichen, während für andere Szenarien komplexere Modelle mit stochastischer Volatilität erforderlich sein können.

Die Existenz eines Optionsmarktes, insbesondere das Vorhandensein impliziter Volatilitätslächeln oder -oberflächen, ist ein weiterer zu berücksichtigender Faktor. Wenn im Markt implizite Volatilitätsmuster beobachtet werden, könnten Modelle mit stochastischer Volatilität besser geeignet sein. Fehlen solche Muster jedoch, sind möglicherweise einfachere Modelle mit weniger komplexer Dynamik vorzuziehen.

Darüber hinaus ist es wichtig, die Marktpraxis für die Modellierung zu verstehen. Gibt es einen etablierten Konsens auf dem Markt? Gibt es Dokumentationen und Richtlinien von Börsen oder anderen Quellen? Es ist wichtig, die vorhandene Literatur zu prüfen und ein umfassendes Verständnis der Anlageklasse zu erlangen, bevor man sich für einen stochastischen Prozess entscheidet. Der Versuch, eine stochastische Differentialgleichung an eine Anlageklasse anzupassen, ohne deren Eigenschaften genau zu kennen, führt oft zu suboptimalen Ergebnissen.

Im Kurs haben wir verschiedene Modelle behandelt, darunter auch solche mit Sprüngen und mehreren Differentialgleichungen. Zwei konkrete Beispiele wurden diskutiert, um den Unterschied in der Dynamik zu veranschaulichen: geometrische Brownsche Bewegung und mittelwertumkehrende Ornstein-Uhlenbeck-Prozesse. Die Wege und Umsetzungen dieser Prozesse unterscheiden sich erheblich, und es ist wichtig, ein Modell zu wählen, das auf die spezifischen Merkmale der Anlageklasse abgestimmt ist. Die geometrische Brownsche Bewegung ist immer positiv und eignet sich daher nicht für die Modellierung von Zinssätzen, die negativ sein können. Ebenso ist ein Ornstein-Uhlenbeck-Prozess möglicherweise nicht für die Modellierung von Beständen geeignet, die ebenfalls ein negatives Verhalten aufweisen können.

Obwohl zahlreiche Modelle verfügbar sind, wie etwa das Heston-Modell, lokale Volatilitätsmodelle oder Hybridmodelle, ist es von entscheidender Bedeutung, mit einem guten Verständnis der Anlageklasse und ihrer Ziele zu beginnen. Verschiedene Modelle haben unterschiedliche Stärken und Schwächen und ihre Anwendbarkeit hängt von den spezifischen Anforderungen und Einschränkungen des Marktes ab.

Zusammenfassend lässt sich sagen, dass es grundsätzlich möglich ist, dieselben Preismodelle über verschiedene Anlageklassen hinweg zu verwenden, der Erfolg jedoch nicht in allen Fällen garantiert ist. Die Entscheidung, ein bestimmtes Modell anzuwenden, sollte auf einem gründlichen Verständnis der Anlageklasse, ihrer Dynamik und der spezifischen Preisanforderungen basieren. Durch die Berücksichtigung der zuvor genannten Kriterien und die Durchführung einer Literaturstudie können fundierte Entscheidungen hinsichtlich der Modellauswahl und -anwendung getroffen werden.

Can we use the same pricing models for different asset classes?
Can we use the same pricing models for different asset classes?
  • 2023.01.05
  • www.youtube.com
Computational Finance Q&A, Volume 1, Question 1/30▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬Materials discussed in this video are based on:1) FREE online course...