Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wall Street: Die Speed-Trader
Wall Street: Die Speed-Trader
Vielen Menschen ist nicht bewusst, dass die meisten Aktiengeschäfte in den Vereinigten Staaten nicht mehr von Menschen, sondern von Robotercomputern ausgeführt werden. Diese Supercomputer sind in der Lage, im Handumdrehen Tausende verschiedener Wertpapiere zu kaufen und zu verkaufen. Der so genannte Hochfrequenzhandel hat sich in den letzten Jahren an der Wall Street durchgesetzt und spielte eine Rolle beim Mini-Marktcrash im vergangenen Frühjahr, als der Dow Jones Industrial Average in nur 15 Minuten um 600 Punkte einbrach.
Die Börsenaufsichtsbehörde (Securities and Exchange Commission) und Mitglieder des Kongresses haben begonnen, schwierige Fragen zum Nutzen, zu den potenziellen Gefahren und zum Verdacht der Marktmanipulation durch Computerhandel zu stellen. Der Wandel von menschlichen Händlern hin zu Maschinen hat die Landschaft der New Yorker Börse, die einst das Zentrum der Finanzwelt war, verändert. Mittlerweile finden weniger als 30 % des Handels auf dem Börsenparkett statt, der Rest wird über elektronische Plattformen und alternative Handelssysteme abgewickelt.
Zwei elektronische Börsen, BATS und Direct Edge, die großen Banken und Hochfrequenzhandelsunternehmen gehören, sind entstanden und handeln mit erstaunlicher Geschwindigkeit über eine Milliarde Aktien pro Tag. Hochfrequenzhandelsfirmen wie Tradeworks, die von Manoj Narang und einem Team aus Mathematikern und Wissenschaftlern namens Quants (quantitative Analysten) geleitet werden, praktizieren diese Praxis. Sie führen Trades für Bruchteile einer Sekunde aus und zielen darauf ab, einen Gewinn von einem Cent oder weniger pro Trade zu erzielen. Diese Firmen verlassen sich auf komplexe mathematische Algorithmen, die in ihren Computern programmiert sind, um Echtzeitdaten zu analysieren und in Sekundenbruchteilen Entscheidungen zu treffen.
Ein wesentlicher Aspekt des Hochfrequenzhandels besteht darin, dass die Computer die gehandelten Unternehmen nicht verstehen. Sie kennen den Wert der Unternehmen, ihr Management oder andere qualitative Faktoren nicht. Die Handelsentscheidungen basieren ausschließlich auf quantitativen Faktoren, Wahrscheinlichkeiten und statistischen Analysen. Dieser Ansatz ermöglicht es, flüchtige Chancen auf dem Markt zu nutzen, lässt jedoch fundamentale Faktoren außer Acht.
Hochfrequenzhändler investieren stark in Supercomputer und Infrastruktur, um sich einen Geschwindigkeitsvorteil zu verschaffen. Je näher ihre Computer an den Servern der Börse stehen, desto schneller erhalten sie wichtige Marktinformationen. Schon ein paar Millisekunden Vorteil können zu erheblichen Gewinnen führen. Kritiker argumentieren, dass Hochfrequenzhändler diesen Vorteil ausnutzen, um Aufträge zu erteilen, Aktien zu manipulieren und Geld aus dem Markt zu ziehen, ohne einen echten Mehrwert zu schaffen.
Während Befürworter behaupten, dass der Hochfrequenzhandel die Marktliquidität erhöht, die Transaktionskosten senkt und die Aktien-Spreads verengt, glauben Kritiker, dass er Fairness und Transparenz untergräbt. Die hohe Geschwindigkeit des Handels und die Komplexität der Algorithmen erschweren die Überwachung und Gewährleistung gleicher Wettbewerbsbedingungen durch die Regulierungsbehörden. Der „Flash-Crash“ von 2010, als der Dow Jones innerhalb weniger Minuten um 600 Punkte einbrach, machte die potenziellen Risiken deutlich, die mit dem Hochfrequenzhandel und der mangelnden Kontrolle verbunden sind.
Regulierungsbehörden und Gesetzgeber haben begonnen, Reformen vorzuschlagen, um Bedenken im Zusammenhang mit dem Hochfrequenzhandel auszuräumen. Die Börsenaufsichtsbehörde (Securities and Exchange Commission) erwägt Maßnahmen zur Verfolgung und Identifizierung von Hochfrequenzgeschäften. Darüber hinaus wurden Schutzschalter eingeführt, um den Handel bei extremer Preisvolatilität zu stoppen. Allerdings sind weitere Änderungen erforderlich, um das Vertrauen in die Integrität des Marktes wiederherzustellen und Transparenz für Durchschnittsanleger zu schaffen, die das Gefühl haben, dass das System gegen sie manipuliert wird.
In den letzten Jahren haben Hochfrequenzhändler ihre Aktivitäten auf Devisen- und Rohstoffmärkte ausgeweitet, was die Besorgnis über ihre Auswirkungen auf die Finanzmärkte weiter aufkommen lässt. Die technologische Entwicklung übersteigt die Fähigkeit der Regulierungsbehörden, Schritt zu halten, und der Ruf nach Reformen, die ein Gleichgewicht zwischen Innovation und Marktintegrität herstellen, wird immer lauter.
„Mathematical Modeling and Computation in Finance: With Exercises and Python and MATLAB Computer Codes“ , von CW Oosterlee und LA Grzelak, World Scientific Publishing, 2019.
„Mathematical Modeling and Computation in Finance: With Exercises and Python and MATLAB Computer Codes“ ist ein unschätzbar wertvolles Buch, das die Schnittstelle zwischen Mathematik, Finanzen und Informatik untersucht. Es wurde von Experten auf diesem Gebiet verfasst und bietet einen umfassenden Leitfaden zum Verständnis und zur Implementierung mathematischer Modelle im Finanzwesen mithilfe gängiger Programmiersprachen wie Python und MATLAB.
Das Buch beginnt mit einer Einführung in die grundlegenden Konzepte der mathematischen Modellierung im Finanzwesen, einschließlich Wahrscheinlichkeitstheorie, stochastischer Analysis und Optimierungstechniken. Es betont die praktischen Aspekte der Modellierung und Berechnung und unterstreicht die Bedeutung numerischer Methoden und Simulationen für die Lösung realer Finanzprobleme.
Eines der herausragenden Merkmale dieses Buches ist die Einbeziehung zahlreicher Übungen und Computercodes in Python und MATLAB. Diese Übungen ermöglichen es den Lesern, sich aktiv mit dem Material auseinanderzusetzen, ihr Verständnis der Konzepte zu festigen und ihre Programmierkenntnisse zu entwickeln. Durch das Durcharbeiten der Übungen und die Implementierung der bereitgestellten Codes können die Leser praktische Erfahrungen bei der Anwendung mathematischer Modelle im Finanzwesen sammeln und ihre Kenntnisse im Umgang mit diesen Programmiersprachen für Finanzanalysen verbessern.
Das Buch behandelt ein breites Spektrum finanzrelevanter Themen wie Optionspreisgestaltung, Portfoliooptimierung, Risikomanagement und Vermögensallokation. Es befasst sich mit fortgeschrittenen Themen wie Volatilitätsmodellierung, Zinsmodellierung und Kreditrisikomodellierung und vermittelt den Lesern ein umfassendes Verständnis der mathematischen Techniken, die bei der Finanzmodellierung verwendet werden.
Die Autoren finden im gesamten Buch eine Balance zwischen theoretischer Strenge und praktischer Anwendung. Sie liefern klare Erklärungen der zugrunde liegenden mathematischen Konzepte und Algorithmen, begleitet von Beispielen aus der Praxis und Fallstudien. Dieser Ansatz ermöglicht es den Lesern, die theoretischen Grundlagen zu verstehen und gleichzeitig Einblicke in die Anwendung dieser Modelle zur Lösung praktischer Finanzprobleme zu gewinnen.
Darüber hinaus beleuchtet das Buch die Vorteile und Grenzen verschiedener Modellierungsansätze und vermittelt den Lesern die Fähigkeit zum kritischen Denken, die erforderlich ist, um fundierte Entscheidungen bei der Auswahl und Implementierung von Modellen in realen Szenarien zu treffen.
„Mathematical Modeling and Computation in Finance: With Exercises and Python and MATLAB Computer Codes“ ist eine hervorragende Ressource für Studenten, Forscher und Praktiker im Finanzbereich, die ihr Verständnis für mathematische Modellierung und Berechnungsmethoden vertiefen möchten. Seine Kombination aus theoretischen Erklärungen, praktischen Übungen und gebrauchsfertigen Computercodes macht es zu einem unverzichtbaren Begleiter für alle, die sich für die Anwendung mathematischer Techniken zur Lösung finanzieller Probleme interessieren.
https://github.com/LechGrzelak/Computational-Finance-Course
Dieser Kurs Computational Finance basiert auf dem Buch: „Mathematical Modeling and Computation in Finance: With Exercises and Python and MATLAB Computer Codes“
Computational Finance: Vorlesung 1/14 (Einführung und Überblick über Anlageklassen)
Diese umfassende Vorlesung dient als Einführung in die faszinierenden Bereiche Computational Finance und Financial Engineering und deckt ein breites Spektrum an Themen ab, die für das Verständnis moderner Finanzen unerlässlich sind. Der Dozent betont die Bedeutung theoretischer Modelle aus der Finanzmathematik und der Finanzinformatik, die zur Erstellung praktischer Modelle für die Preisgestaltung von Derivaten in verschiedenen Szenarien eingesetzt werden.
Im Kurs „Computational Finance“ vertiefen sich die Studierenden in verschiedene Themen, die für das Verständnis und die Anwendung praktischer Finanzmethoden von entscheidender Bedeutung sind. Unter der Leitung des Dozenten Leth Lag liegt der Schwerpunkt des Kurses auf der Implementierung effizienter Programmiertechniken unter Verwendung von Python für Simulation und Optionspreisgestaltung. Dieses umfassende Programm richtet sich an Personen, die sich für Finanzen, quantitative Finanzen und Finanztechnik interessieren. Es behandelt wesentliche Konzepte wie implizite Volatilitäten, Absicherungsstrategien und das faszinierende Reich exotischer Derivate.Computational Finance ist ein interdisziplinäres Gebiet zwischen Finanzmathematik und numerischen Methoden. Sein Hauptziel ist die Entwicklung von Techniken, die direkt auf die Wirtschaftsanalyse angewendet werden können, indem Programmierkenntnisse mit theoretischen Modellen kombiniert werden. Financial Engineering hingegen umfasst einen multidisziplinären Ansatz, der Finanztheorie, technische Methoden, mathematische Werkzeuge und Programmierpraktiken nutzt. Finanzingenieure spielen eine entscheidende Rolle bei der Erstellung praktischer Modelle auf der Grundlage mathematischer und rechnergestützter Finanzen, die zur Preisgestaltung von Derivaten und zur effizienten Abwicklung komplexer Finanzverträge genutzt werden können. Diese Modelle müssen theoretisch fundiert und an verschiedene Szenarien anpassbar sein.
Der Kurs beleuchtet verschiedene Anlageklassen, die im Bereich Computational Finance gehandelt werden, darunter Aktien, Optionen, Zinssätze, Devisen, Kreditmärkte, Rohstoffe, Energie und Kryptowährungen. Insbesondere Kryptowährungen bieten Zugang zu verschiedenen Anlageklassen und können zu Absicherungszwecken eingesetzt werden. Jede Anlageklasse verfügt über einzigartige Verträge, die für Risikokontroll- und Absicherungsstrategien verwendet werden. Der Over-the-Counter-Markt (OTC) mit seinen zahlreichen Kontrahenten weist zusätzliche Komplexitäten auf, die verstanden werden müssen.
Der Dozent wird die Rolle von Kryptowährungen im Finanzwesen untersuchen und dabei deren vielfältige Merkmale sowie die Notwendigkeit spezifischer Methoden, Modelle und Annahmen für die Preisgestaltung hervorheben. Darüber hinaus werden die Marktanteile verschiedener Anlageklassen wie Zinsen, Devisen, Aktien, Rohstoffe und Credit Default Swaps (CDS) untersucht. Obwohl Optionen einen relativ kleinen Teil der Finanzwelt ausmachen, bieten sie eine besondere Perspektive auf die Finanz- und Computeranalyse.
Das Thema Optionen und Spekulation wird ausführlich besprochen und hervorgehoben, wie Optionen eine Alternative zum Kauf von Aktien darstellen, indem sie es Einzelpersonen ermöglichen, mit einem relativ geringen Kapitaleinsatz über die zukünftige Entwicklung einer Aktie zu spekulieren. Allerdings haben Optionen ein Fälligkeitsdatum und können an Wert verlieren, wenn der Aktienkurs unverändert bleibt, was den Zeitpunkt zu einem entscheidenden Faktor bei Spekulationen macht. Der Kurs bietet eine Einführung in die Finanzmärkte, Anlageklassen und die Rolle von Finanzingenieuren bei der Navigation in diesen komplexen Landschaften. Aktien als beliebteste Anlageklasse werden im Detail untersucht, wobei der Schwerpunkt auf dem Konzept des Eigentums liegt und wie der Aktienwert von der Unternehmensleistung und den Zukunftserwartungen beeinflusst wird.
Die Vorlesung beleuchtet die stochastische Natur des Aktienverhaltens auf dem Markt, das von Faktoren wie Angebot und Nachfrage, Wettbewerbern und Unternehmensleistung beeinflusst wird. Der erwartete Wert einer Aktie kann vom tatsächlichen Wert abweichen, was zu Volatilität führt. Die Volatilität ist ein entscheidendes Element bei der Modellierung und Preisgestaltung von Optionen, da sie die zukünftigen Schwankungen der Aktienkurse bestimmt. Darüber hinaus wird in der Vorlesung zwischen zwei Arten von Anlegern unterschieden: solchen, die an Dividendenrenditen interessiert sind, und solchen, die Wachstumschancen suchen.
Das Konzept der Dividenden und Dividendeninvestitionen wird vorgestellt und betont, wie Dividenden eine stabile und sichere Investition darstellen, da Unternehmen regelmäßig Zahlungen an die Aktionäre ausschütten. Die Dividendenzahlungen können jedoch variieren, und hohe Dividendenrenditen können auf ein erhöhtes Risiko bei den Investitionen eines Unternehmens hinweisen. In der Vorlesung wird kurz auf Zinssätze und Geldmärkte eingegangen, wobei darauf hingewiesen wird, dass diese Themen in einem Folgekurs ausführlicher behandelt werden.
Die Inflation und ihre Auswirkungen auf die Zinssätze werden diskutiert und erläutert, wie Zentralbanken die Inflation durch Anpassung der Zinssätze steuern. In der Vorlesung werden die kurzfristigen Vorteile und langfristigen Auswirkungen einer Zinssenkung sowie alternative Strategien wie die moderne Geldtheorie oder der Ankauf von Vermögenswerten durch Zentralbanken untersucht. Darüber hinaus wird erläutert, welche Rolle die Unsicherheit der Marktteilnehmer bei der Festlegung der Zinssätze spielt und welche versteckten steuerlichen Auswirkungen die Inflation auf die Bürger hat. Den Abschluss der Vorlesung bildet eine Vertiefung zum Thema Risikomanagement in der Kreditvergabe. Der Dozent wird die potenziellen Risiken hervorheben, denen Kreditgeber ausgesetzt sind, wie z. B. die Insolvenz des Kreditnehmers oder der Zahlungsausfall bei Krediten. Um diese Risiken zu mindern, erheben Kreditgeber häufig eine Risikoprämie, um sicherzustellen, dass sie für mögliche Verluste angemessen entschädigt werden.
In Zukunft wird der Redner den Fokus auf Zinssätze und ihre Bedeutung im Finanzwesen richten. Sie erklären, wie sich Zinssätze auf verschiedene Finanzinstrumente auswirken, darunter Sparkonten, Hypotheken und Kredite. Das Konzept des Zinseszinses wird eingeführt und betont die Vorstellung, dass eine Währungseinheit heute aufgrund von Faktoren wie der Inflation mehr wert ist als dieselbe Einheit in der Zukunft. Die beiden Hauptmethoden zur Berechnung von Zinssätzen, die einfache und die zusammengesetzte, werden besprochen, ihre Unterschiede ausführlich erläutert und praktische Beispiele gegeben.
Anschließend geht der Referent näher auf Zinseszinsen ein, insbesondere für Anlagen mit einer Laufzeit von einem Jahr. Sie erklären die mathematische Modellierung zusammengesetzter Zinssätze mithilfe der Exponentialfunktion, bei der eine Währungseinheit mit e multipliziert wird und mit dem Zinssatz potenziert wird. Darüber hinaus wird der Referent beschreiben, wie diese mathematische Darstellung mit den Differentialgleichungen übereinstimmt, die Sparkonten regeln, und zur Bestimmung des Multiplikationsfaktors führt, der zur Diskontierung zukünftiger Cashflows verwendet wird. Der Redner wird jedoch darauf hinweisen, dass die Zinssätze in Wirklichkeit nicht konstant sind, sondern im Laufe der Zeit variieren, was sich an verschiedenen Instrumenten wie Laufzeiten und Preisen für Währungen wie dem Euro und dem USD zeigt.
Besprochen werden die Diagramme, die die Zinssätze und die Marktliquidität für die Eurozone und den Dollar darstellen. Bemerkenswert ist, dass die aktuelle Lage der Eurozone bei allen Laufzeiten bis zu 30 Jahren negative Renditen aufweist, was bedeutet, dass eine Anlage in Staatsanleihen innerhalb der Eurozone zu einem Geldverlust führen könnte. Der Redner wird darauf hinweisen, dass Einzelpersonen möglicherweise lieber Euro in Dollar umtauschen und in US-Anleihen investieren, da diese höhere Renditen bieten. Dennoch birgt dieser Ansatz Risiken, einschließlich potenzieller Verluste aufgrund von Wechselkursschwankungen. Der Referent wird betonen, dass Zinssätze zeitabhängig sind und der Marktdynamik unterliegen.
Der Dozent beleuchtet das Konzept des Anleihekaufs und betont, dass Anleihekäufer häufig mehr zahlen, als der tatsächliche Wert der Anleihe beträgt. Folglich kann der Wert des in Anleihen investierten Geldes im Laufe der Zeit sinken, und die Inflation kann den Wert der Anlage schmälern. Wichtige Käufer von Anleihen wie Pensionsfonds und Zentralbanken werden erwähnt, was ihre bedeutende Rolle auf dem Anleihenmarkt unterstreicht. Darüber hinaus wird der Dozent auf das Konzept der Volatilität eingehen, das die Schwankung der Finanzpreise im Zeitverlauf misst. Die Volatilität wird anhand statistischer Maße wie der Varianz berechnet und liefert Einblicke in die Tendenz eines Marktes oder Wertpapiers, zu schwanken, was zu Unsicherheit und Risiko führt.
Anschließend wird der Schwerpunkt des Kurses auf Vermögensrenditen und Volatilität gelegt, zwei wichtige Konzepte in der Computational Finance. Vermögensrenditen beziehen sich auf die Gewinne oder Verluste eines Wertpapiers innerhalb eines bestimmten Zeitraums, während die Volatilität die Varianz dieser Renditen misst. Ein sehr volatiler Markt weist auf erhebliche Preisschwankungen in kurzer Zeit hin, was zu erhöhter Unsicherheit und erhöhtem Risiko führt. Mit dem VIX-Index wird ein Instrument zur Messung der Marktunsicherheit eingeführt. Es nutzt Out-of-the-Money- oder Put-Optionen und wird häufig von Anlegern eingesetzt, um ihr Kapital im Falle eines Marktwertrückgangs zu schützen. Die Bedeutung des Timings und der Vorhersage der Belichtungszeiten wird hervorgehoben, da diese in der Praxis eine Herausforderung darstellen können.
Der Dozent bespricht die Feinheiten der Analyse der Volatilität verschiedener Indizes, einschließlich des VIX-Index. Sie erkennen die Schwierigkeiten bei der mathematischen Modellierung der Volatilität aufgrund von Marktbedingungen und -schwankungen an. Darüber hinaus werden europäische Optionen eingeführt, die als grundlegende Bausteine für die volatilitätsbasierte Preisgestaltung von Derivaten dienen. Der Dozent wird klar zwischen Call-Optionen und Put-Optionen unterscheiden und erklären, dass Call-Optionen dem Inhaber das Recht einräumen, einen Vermögenswert zu einem vorher festgelegten Preis und Datum zu kaufen, während Put-Optionen dem Inhaber das Recht geben, einen Vermögenswert zu einem vorher festgelegten Preis zu verkaufen und Datum, die im Wesentlichen als Versicherung dienen.
Nachdem die Grundlagen der Optionen geschaffen wurden, präsentiert der Dozent einen Überblick über Optionen innerhalb verschiedener Anlageklassen. Sie werden die beiden wichtigsten Arten von Optionen hervorheben: Call-Optionen und Put-Optionen. Im Falle einer Call-Option hat der Käufer das Recht, den Basiswert zu einem bestimmten Fälligkeitsdatum und Ausübungspreis an den Stillhalter zu verkaufen. Dies bedeutet, dass der Stillhalter bei Fälligkeit verpflichtet ist, die Aktie zum Ausübungspreis zu kaufen, wenn der Käufer die Option ausübt. Andererseits gewährt eine Put-Option dem Käufer das Recht, den Basiswert zu einem bestimmten Fälligkeitsdatum und Ausübungspreis an den Stillhalter zu verkaufen. Bei Fälligkeit muss der Stillhalter die Aktie zum festgelegten Ausübungspreis kaufen, wenn der Käufer die Option ausübt.
Um die potenzielle Rentabilität von Optionen zu veranschaulichen, präsentiert der Dozent zwei grafische Darstellungen – eine für Call-Optionen und eine andere für Put-Optionen. Diese Diagramme zeigen den potenziellen Gewinn oder Verlust basierend auf dem Wert der zugrunde liegenden Aktie. Durch die Betrachtung der Diagramme können Zuschauer Einblicke gewinnen, wie sich Änderungen im Aktienwert auf die Rentabilität von Optionen auswirken können.
Während des Kurses wird der Dozent weitere fortgeschrittene Themen im Zusammenhang mit Computational Finance behandeln, darunter die Modellierung von Derivaten, die Implementierung effizienter Programmierung und die Verwendung von Python für Simulation und Optionspreisgestaltung. Sie werden während der Sitzungen live programmieren und die Ergebnisse gemeinsam mit den Zuschauern analysieren und so praktische Erfahrungen und praktische Einblicke bieten.
Der Kurs richtet sich speziell an Personen, die sich für Finanzen, quantitative Finanzen und Finanztechnik interessieren. Ziel ist es, die Lücke zwischen Finanzmathematik und numerischen Methoden zu schließen und interdisziplinäre Kenntnisse und Fähigkeiten bereitzustellen, die zur Bewältigung realer Finanzprobleme erforderlich sind. Die Konzepte impliziter Volatilitäten, Absicherungsstrategien und exotischer Derivate werden ebenfalls behandelt und vermitteln ein umfassendes Verständnis der Computational Finance und ihrer Anwendungen in der Finanzbranche.
Am Ende des Kurses verfügen die Teilnehmer über solide Grundlagen in Computational Finance, Financial Engineering und der praktischen Anwendung numerischer Methoden. Sie werden mit den Werkzeugen und dem Wissen ausgestattet, um Modelle für die Preisgestaltung von Derivaten, das Risikomanagement und die Analyse von Finanzdaten zu entwickeln und umzusetzen. Dieser Kurs dient als Sprungbrett für diejenigen, die eine Karriere in den Bereichen Finanzen, quantitative Analyse oder Finanztechnik anstreben, und befähigt sie, fundierte Entscheidungen zu treffen und zum sich ständig weiterentwickelnden Bereich der Computational Finance beizutragen.
Computational Finance: Vorlesung 2/14 (Aktien, Optionen und Stochastik)
Computational Finance: Vorlesung 2/14 (Aktien, Optionen und Stochastik)
Der Dozent gibt zunächst einen Überblick über den Kurs und betont, wie wichtig es ist, das Handelsvertrauen, die Absicherung und die Notwendigkeit mathematischer Modelle im Finanzwesen zu verstehen. Sie vertiefen sich in die Thematik der Preisgestaltung von Put-Optionen und erläutern das Konzept der Absicherung. Auch stochastische Prozesse und Vermögenspreismodellierung werden behandelt, wobei das Ito-Lemma als Werkzeug zur Lösung stochastischer Differentialgleichungen eingeführt wird.
Um die praktische Anwendung dieser Konzepte zu veranschaulichen, stellt der Dozent ein Beispiel einer Schulungsstrategie vor, bei der ein Investor versucht, seine Investition vor einem möglichen Wertverlust der Aktien zu schützen. Sie schlagen den Abschluss einer Versicherung in Form von Put-Optionen vor, um im schlimmsten Fall einen Mindestbetrag sicherzustellen.
Im weiteren Verlauf des Optionshandels konzentriert sich der Dozent auf den Einsatz von Put-Optionen zur Absicherung gegen Abwärtsbewegungen der Aktienkurse. Sie weisen jedoch darauf hin, dass der Kauf von Put-Optionen teuer sein kann, insbesondere wenn die Volatilität der Aktie hoch ist, wie es bei Tesla der Fall ist. Um die Optionskosten zu senken, kann man den Ausübungspreis senken, was jedoch bedeutet, dass man einen niedrigeren Preis für die Aktie in Kauf nimmt. Der Dozent stellt einen Screenshot von Reuters zur Verfügung, der verschiedene Arten von auf dem Markt verfügbaren Optionen zeigt, kategorisiert nach Laufzeit und Ausübungspreis. Sie erläutern auch den Zusammenhang zwischen Ausübungspreis und Optionspreisen für Call- und Put-Optionen.
Als Maß für die Marktunsicherheit wird die implizite Volatilität eingeführt. Der Dozent erklärt, dass niedrigere Ausübungspreise mit einer höheren impliziten Volatilität verbunden sind. Außerdem wird Delta eingeführt, das die Wertabhängigkeit einer Option vom Basiswert misst. Das Video befasst sich dann mit dem Konzept der Absicherung und wie ein Verhältnis festgelegt werden kann, um ein risikofreies Portfolio zu erreichen, auch wenn die Gewinne möglicherweise begrenzt werden, wenn der Wert der Aktie nicht steigt. Die Absicherung mit Optionen wird besprochen, wobei ihre Eignung für kurzfristige Investitionen hervorgehoben wird, es wird jedoch darauf hingewiesen, dass sie in Zeiten hoher Volatilität möglicherweise kostspielig ist.
Der Optionshandel wird weiter als Mittel zur Absicherung und Risikominderung untersucht. Der Dozent weist darauf hin, dass Optionen typischerweise für kurzfristige Investitionen mit einer bestimmten Laufzeit wünschenswerter sind, da sie für langfristige Investitionen kostspielig sein können. Das Konzept der Absicherung mit Calls wird vorgestellt und betont, wie der Verkauf von Optionen dazu beitragen kann, das Risiko für Anleger mit einem großen Aktienportfolio zu reduzieren. Es ist jedoch Vorsicht geboten, nicht zu viele Calls zu verkaufen, da dies das Aufwärtspotenzial einschränken kann und immer ein gewisses Risiko birgt.
Das Video befasst sich dann mit Rohstoffen und erklärt, dass es sich dabei um Rohstoffe handelt, die aufgrund ihrer unvorhersehbaren, aber oft saisonalen Preismuster als Absicherung gegen Inflation dienen. Der Rohstoffhandel findet hauptsächlich auf dem Terminmarkt statt, wo Geschäfte über den Kauf oder Verkauf von Rohstoffen zu einem späteren Zeitpunkt abgeschlossen werden. Der Unterschied zwischen Strommärkten und anderen Rohstoffen wird hervorgehoben, wobei Strom besondere Herausforderungen darstellt, da er nicht vollständig gespeichert werden kann und Auswirkungen auf die Vorhersagbarkeit und den Wert von Derivaten hat.
Anschließend geht der Dozent auf den Devisenhandel als Anlageklasse ein, die gemeinhin als Devisenmarkt bezeichnet wird. Im Gegensatz zum herkömmlichen Kauf oder Verkauf eines bestimmten Wechselkurses tauschen Einzelpersonen Geldbeträge zwischen Währungen aus. Der Dozent betont die Rolle des US-Dollars als Basiswährung und Reservewährung. Sie gehen auch auf die Manipulation der Wechselkurse durch die Zentralbanken ein, um Währungen zu stärken oder zu schwächen. Darüber hinaus wird ein kleiner Einsatz von Devisenderivaten zur Absicherung von Währungsrisiken im internationalen Geschäft erwähnt.
Der Referent erklärt, wie Banken und Finanzinstitute Versicherungen gegen schwankende Wechselkurse kaufen oder verkaufen können, um Investitionsunsicherheiten zu bewältigen. Investitionen in verschiedenen Ländern können aufgrund unterschiedlicher Währungsstärken und Geldpolitiken zu Unsicherheiten führen, was zu unsicheren Renditen führt. Computational Finance spielt eine entscheidende Rolle bei der Verwaltung und Berechnung der mit solchen Investitionen verbundenen Risiken, indem es Unsicherheiten modelliert und verschiedene Faktoren berücksichtigt. Der Redner weist außerdem darauf hin, dass Bitcoins als Wechselkurse betrachtet werden können, und erörtert ihren hybriden Charakter als regulierte Ware, deren Wert durch den Austausch gegen den US-Dollar bestimmt wird. Die Volatilität von Bitcoins macht es schwierig, ihren zukünftigen Wert vorherzusagen.
Darüber hinaus geht der Referent auf das Konzept der risikoneutralen Preisgestaltung ein, das ein grundlegendes Prinzip der Optionspreisgestaltung darstellt. Bei der risikoneutralen Preisgestaltung wird davon ausgegangen, dass in einem vollkommen effizienten Markt die erwartete Rendite einer Option dem risikofreien Zinssatz entsprechen sollte. Dieser Ansatz vereinfacht den Preisfindungsprozess, indem er die Wahrscheinlichkeiten verschiedener Ergebnisse auf der Grundlage eines risikoneutralen Maßes berücksichtigt, bei dem die erwartete Rendite der Option mit dem risikofreien Zinssatz abgezinst wird.
Anschließend stellt der Redner das Black-Scholes-Merton-Modell (BSM) vor, ein weit verbreitetes mathematisches Modell für die Preisgestaltung von Optionen. Das BSM-Modell berücksichtigt verschiedene Faktoren wie den aktuellen Aktienkurs, den Ausübungspreis, die Verfallszeit, den risikofreien Zinssatz und die Volatilität des Basiswerts. Dabei wird davon ausgegangen, dass der zugrunde liegende Vermögenswert der geometrischen Brownschen Bewegung folgt und der Markt effizient ist.
Der Referent erklärt die wichtigsten Komponenten des BSM-Modells, einschließlich der Formel zur Berechnung des Wertes einer europäischen Call- oder Put-Option. Sie betonen die Bedeutung der Volatilität bei der Optionspreisgestaltung, da eine höhere Volatilität den Wert einer Option aufgrund der Möglichkeit größerer Preisschwankungen erhöht. Der Redner erwähnt auch die Rolle der impliziten Volatilität, also der vom Markt erwarteten zukünftigen Volatilität, die durch die Optionspreise impliziert wird.
Anschließend befasst sich die Vorlesung mit dem Konzept des Delta-Hedgings, einer Strategie zur Risikominimierung durch Aufrechterhaltung einer neutralen Position im zugrunde liegenden Vermögenswert. Delta misst die Sensitivität des Optionspreises gegenüber Preisänderungen des Basiswerts. Durch die Anpassung der Anzahl der Anteile am zugrunde liegenden Vermögenswert kann ein Anleger ein Delta-neutrales Portfolio erstellen, das weniger von Preisbewegungen betroffen ist.
Der Referent erklärt den Prozess der Delta-Absicherung anhand des BSM-Modells und zeigt, wie sich damit Risiken effektiv reduzieren lassen. Sie diskutieren das Konzept der dynamischen Absicherung, bei der die Absicherung kontinuierlich angepasst wird, wenn sich der Preis des zugrunde liegenden Vermögenswerts ändert. Dadurch wird sichergestellt, dass das Portfolio deltaneutral bleibt und das Risiko von Marktschwankungen minimiert wird.
Neben dem Delta-Hedging werden in der Vorlesung weitere Risikomanagementtechniken wie Gamma-Hedging und Vega-Hedging behandelt. Gamma misst die Änderungsrate von Delta, während Vega die Sensitivität des Optionspreises gegenüber Änderungen der impliziten Volatilität misst. Diese Techniken ermöglichen es Anlegern, ihre Positionen basierend auf sich ändernden Marktbedingungen und Risiken zu verwalten und anzupassen.
Gegen Ende des Vortrags beleuchtet der Referent die Einschränkungen und Annahmen des BSM-Modells. Sie erkennen an, dass reale Märkte von den Annahmen des Modells abweichen können, beispielsweise hinsichtlich des Vorhandenseins von Transaktionskosten, Liquiditätsbeschränkungen und der Auswirkungen von Marktfriktionen. Der Redner empfiehlt einen vorsichtigen Ansatz und betont, wie wichtig es ist, die mit Optionspreismodellen verbundenen Einschränkungen und Unsicherheiten zu verstehen.
Insgesamt bietet die Vorlesung einen umfassenden Überblick über Handelsvertrauen, Absicherungsstrategien, Optionspreismodelle und Risikomanagementtechniken. Es vermittelt den Lernenden grundlegende Kenntnisse und Werkzeuge, um sich in der komplexen Welt der Finanzmärkte zurechtzufinden und fundierte Entscheidungen bei Handels- und Anlageaktivitäten zu treffen.
Computational Finance: Vorlesung 3/14 (Optionspreisgestaltung und Simulation in Python)
Computational Finance: Vorlesung 3/14 (Optionspreisgestaltung und Simulation in Python)
In der Vorlesung befasst sich der Dozent mit der Aktienpfadsimulation in Python und erkundet das Black-Scholes-Modell für Preisoptionen. Sie diskutieren zwei Ansätze zur Ableitung des Arbitrage-freien Preises für Optionen, nämlich Hedging und Martingale. Der Referent demonstriert, wie man Martingale programmiert und simuliert, und hebt den Zusammenhang zwischen partiellen Differentialgleichungen (PDEs) und Monte-Carlo-Simulation im Preisrahmen hervor.
Mithilfe der Euler-Diskretisierungsmethode erklärt der Referent, wie man stochastische Prozesse simuliert und Diagramme generiert. Sie beginnen mit einem einfachen Prozess und nutzen das Lemma von Ito, um von S zu Bei dieser Methode wird die kontinuierliche Funktion diskretisiert und die Inkremente sowohl für die Drift als auch für die Brownsche Bewegung simuliert, was zu Diagrammen simulierter Pfade führt.
Aus rechnerischer Sicht diskutiert der Referent die Simulation von Pfaden für Optionspreismodelle. Anstatt jeden Pfad einzeln zu simulieren, erklären sie die Effizienz der Durchführung von Zeitscheiben und der Erstellung einer Matrix, in der jede Zeile einen bestimmten Pfad darstellt. Die Anzahl der Zeilen entspricht der Anzahl der Pfade, während die Anzahl der Spalten der Anzahl der Zeitschritte entspricht. Der Referent erläutert die Implementierung des Diskretisierungsprozesses anhand der Standard-Normalzufallsvariablen und betont die Bedeutung der Standardisierung für eine bessere Konvergenz.
Die Vorlesung behandelt auch die Simulation von Pfaden für geometrische Brownsche Bewegungen mit Python. Der Redner veranschaulicht, wie man einen Zufallsstartwert für stabile Simulationen festlegt, und stellt das Black-Scholes-Modell vor, das eine stochastische Differentialgleichung mit Drift und Parametern wie Mu und Sigma zur Modellierung von Vermögenspreisen beinhaltet. Der Redner betont, dass das Black-Scholes-Modell in der Finanzbranche immer noch weit verbreitet ist, insbesondere für die Preisgestaltung von Optionen auf Aktien. Sie diskutieren die Konzepte der realen Messung und der risikoneutralen Messung, die bei der Preisgestaltung von Optionen auf der Grundlage unterschiedlicher Ergebniswahrscheinlichkeiten helfen.
Darüber hinaus befasst sich die Vorlesung mit Optionspreisen und Simulation in Python. Der Referent unterscheidet zwischen dem realen Maß, das auf der Grundlage historischer Daten ohne die Annahme von Arbitrage oder risikofreien Bedingungen geschätzt wird, und dem risikoneutralen Maß, das die Einhaltung bestimmter Bedingungen erfordert. Sie stellen eine Handelsstrategie dar, die den kontinuierlichen Handel mit einer Aktie und die Anpassung der Optionsposition umfasst, um die Bewegung der zugrunde liegenden Aktie zu erfassen. Der Referent erklärt die Dynamik des Portfolios anhand des Ito-Lemmas und leitet durch diese Methode die stochastische Natur von Optionswerten ab.
Der Redner befasst sich auch mit Techniken zum Aufbau eines Absicherungsportfolios, das unabhängig von der Brownschen Bewegung ist. Sie diskutieren die Wahl eines Deltas, das die Bedingungen der Brownschen Bewegung zunichte macht und ein Delta-neutrales Portfolio gewährleistet. Der Referent betont, wie wichtig es ist, dass das Portfolio die gleiche Rendite wie ein Sparkonto erwirtschaftet, und stellt das Konzept des Geldanlagekontos vor.
Darüber hinaus befasst sich die Vorlesung mit der Ableitung partieller Differentialgleichungen (PDEs) zur Optionsbewertung anhand des Black-Scholes-Modells. Die resultierende PDE ist ein Derivat zweiter Ordnung mit Randbedingungen, die den beizulegenden Zeitwert einer Option bestimmen. Der Referent betont, dass die Optionspreisgestaltung des Black-Scholes-Modells nicht wesentlich vom Driftparameter mu abhängt, der aus Kalibrierungs- oder historischen Daten gewonnen werden kann. Transaktionskosten zur Absicherung werden in diesem Modell jedoch nicht berücksichtigt.
Die Vorlesung behandelt verschiedene wichtige Konzepte innerhalb des Black-Scholes-Modells und der Optionspreisgestaltung. Es wird die Annahme erörtert, dass es keine Arbitragemöglichkeiten gibt, was zu einem risikofreien Szenario für die Anwendung des Modells führt. Der Referent erklärt das Konzept des Delta-Hedgings und wie es die größte Zufallskomponente eines Portfolios eliminiert. Darüber hinaus stellt der Referent Gamma als Maß für das Verhalten von Delta vor und betont, dass jeder Parameter im Modell abgesichert werden kann. Abschließend werden in der Vorlesung die bestimmenden Faktoren für den Wert einer Option untersucht, wie z. B. Zeit, Ausübungspreis, Volatilität und marktbezogene Parameter.
In der Vorlesung geht der Referent weiter auf das Black-Scholes-Modell und seine Anwendung bei der Optionspreisgestaltung ein. Sie diskutieren die Annahmen und Einschränkungen des Modells, einschließlich der Annahme einer konstanten Volatilität und des Fehlens von Transaktionskosten. Trotz dieser Einschränkungen wird das Black-Scholes-Modell in der Finanzbranche aufgrund seiner Einfachheit und Effektivität bei der Preisgestaltung europäischer Call- und Put-Optionen weiterhin häufig verwendet.
Der Redner stellt das Konzept der impliziten Volatilität vor, bei der es sich um die Markterwartung hinsichtlich der zukünftigen Volatilität handelt, die aus den aktuellen Optionspreisen abgeleitet wird. Die implizite Volatilität ist ein entscheidender Parameter im Black-Scholes-Modell, da sie die Preisgestaltung von Optionen beeinflusst. Der Referent erläutert, wie mithilfe des Modells die implizite Volatilität aus Marktdaten ermittelt werden kann, und erörtert deren Bedeutung für Optionshandelsstrategien.
Die Vorlesung befasst sich mit verschiedenen Optionshandelsstrategien wie Delta-Hedging und Gamma-Handel. Bei der Delta-Absicherung wird die Zusammensetzung des Portfolios kontinuierlich angepasst, um eine neutrale Position gegenüber Änderungen des Preises des Basiswerts aufrechtzuerhalten. Der Schwerpunkt des Gamma-Handels liegt auf der Ausnutzung von Gamma-Änderungen, die messen, wie sich Delta im Verhältnis zum Preis des Basiswerts verändert. Diese Strategien zielen darauf ab, das Risiko zu managen und die Rentabilität im Optionshandel zu maximieren.
Der Redner geht auch auf andere wichtige Faktoren ein, die die Optionspreise beeinflussen, darunter Zeitverfall (Theta), Zinssätze (Rho) und Dividendenrendite. Sie erklären, wie sich diese Faktoren auf die Optionspreise auswirken und wie Händler sie nutzen können, um fundierte Entscheidungen zu treffen.
Während der gesamten Vorlesung wird Python-Programmierung verwendet, um die Implementierung verschiedener Optionspreismodelle und Handelsstrategien zu demonstrieren. Der Referent stellt Codebeispiele bereit und erklärt, wie Bibliotheken und Funktionen zur Durchführung von Berechnungen und Simulationen genutzt werden können.
Zusammenfassend bietet die Vorlesung einen umfassenden Überblick über die Optionspreisgestaltung und -simulation mithilfe des Black-Scholes-Modells und verwandter Konzepte. Es betont die praktische Anwendung dieser Konzepte in der Python-Programmierung und macht es zu einer wertvollen Ressource für Personen, die sich für quantitative Finanzen und Optionshandel interessieren.
Computational Finance: Vorlesung 4/14 (Implizite Volatilität)
Computational Finance: Vorlesung 4/14 (Implizite Volatilität)
In diesem umfassenden Vortrag über Computational Finance steht das Konzept der impliziten Volatilität im Mittelpunkt und beleuchtet seine Bedeutung bei der Berechnung von Optionspreisen. Während das Black-Scholes-Modell als Grundlage für die Berechnung der impliziten Volatilität dient, werden seine Einschränkungen und Ineffizienzen gebührend hervorgehoben. Die Vorlesung befasst sich mit verschiedenen Methoden zur Berechnung der impliziten Volatilität, insbesondere mit iterativen Verfahren wie der Newton-Raphson-Methode. Darüber hinaus untersucht der Dozent die Herausforderungen, die mit der Modellierung von Optionspreisen verbunden sind, und unterstreicht die Rolle impliziter Volatilitäten bei der Abbildung von Markterwartungen. Während der gesamten Vorlesung bleibt die entscheidende Bedeutung des Verständnisses der Volatilität bei der Optionspreisgestaltung und des Aufbaus effektiver Absicherungsportfolios ein zentrales Thema.
Die Vorlesung erweitert ihre Untersuchung, indem sie sich auf die Beziehung zwischen Optionspreisen und impliziter Volatilität konzentriert, mit besonderem Schwerpunkt auf liquiden Out-of-the-Money-Puts und -Calls. Es untersucht verschiedene Arten der impliziten Volatilitätsabweichung, einschließlich zeitabhängiger Volatilitätsparameter und des Einflusses der Zeitabhängigkeit auf die implizite Volatilität. Darüber hinaus befasst sich die Vorlesung mit den Einschränkungen des Black-Scholes-Modells und alternativen Ansätzen zur Handhabung von Volatilitätsmodellen, einschließlich lokaler Volatilitätsmodelle, Sprungmodelle und stochastischer Volatilitätsmodelle. Der Einfluss der Optionslaufzeit auf die Volatilität wird ebenfalls erläutert, wobei Optionen mit kürzerer Laufzeit eine konzentriertere Verteilung um die Geldmenge aufweisen als Optionen mit längerer Laufzeit, bei denen der Smile-Effekt weniger ausgeprägt ist.
Der Professor fasst zunächst die in den vorherigen Abschnitten behandelten Schlüsselkonzepte zusammen, insbesondere in Bezug auf Optionspreise und Volatilitätsmodellierung. Die implizite Volatilität wird eingeführt und ihre Berechnung aus Marktdaten sowie ihre Rolle bei der Messung der Unsicherheit hervorgehoben. Der Algorithmus zur Berechnung der impliziten Volatilität wird ausführlich besprochen. Darüber hinaus werden die Einschränkungen und Effizienzen des Black-Scholes-Modells sowie Erweiterungen wie die Einbeziehung zeitabhängiger Volatilitätsparameter und die Generierung impliziter Volatilitätsoberflächen angesprochen. Die Vorlesung geht auch auf die Nachteile ein, die sich daraus ergeben, dass man sich ausschließlich auf das Black-Scholes-Modell verlässt, und stellt alternative Modelle wie lokale Volatilität und stochastische Volatilität vor. Der Schwerpunkt liegt auf der Notwendigkeit, ein geeignetes Modell für die Preisgestaltung von Eventualansprüchen zu spezifizieren, und auf der Bedeutung des Aufbaus eines Absicherungsportfolios bestehend aus Optionen und Aktien, um zu einer partiellen Preisdifferenzialgleichung (PDE) zu gelangen.
Der Referent untersucht dann die Verwendung von Erwartungen bei der Lösung partieller Differentialgleichungen, insbesondere im Zusammenhang mit einem deterministischen Zinssatz und der Notwendigkeit, Erwartungen unter dem risikoneutralen Maß anzunehmen. Dargestellt wird die Preisgleichung für europäische Call- und Put-Optionen, die auf einer an den Punkten d1 ausgewerteten ursprünglichen kumulativen Normalverteilungsfunktion (CDF) basiert, die von Modellparametern abhängt, zusammen mit einem Exponenten, der den Zinssatz über die Zeit bis zur Fälligkeit betrifft. Der Vortrag erläutert, dass diese Formel problemlos in Excel umgesetzt werden kann.
Anschließend geht der Dozent auf die erforderlichen Parameter für das Black-Scholes-Modell ein, das als Werkzeug zur Schätzung von Optionspreisen dient. Zu diesen Parametern gehören die Restlaufzeit, der Ausübungspreis, der Zinssatz, der aktuelle Aktienwert und der Volatilitätsparameter Sigma, der anhand von Marktpreisen geschätzt werden muss. Der Dozent betont die Eins-zu-eins-Korrespondenz zwischen Optionspreis und Volatilität und betont, dass ein Anstieg der Volatilität einen entsprechenden Anstieg des Optionspreises mit sich bringt und umgekehrt. Anschließend wird das Konzept der impliziten Volatilität diskutiert, wobei seine Berechnung auf der Grundlage des Mittelpreises und seine Bedeutung innerhalb des Black-Scholes-Modells hervorgehoben werden.
Die Vorlesung befasst sich weiter mit der Ermittlung der impliziten Volatilität aus Modellen mit mehreren Parametern. Es wird darauf hingewiesen, dass unabhängig vom gewählten Modell der Test des Black-Scholes-Modells bestanden werden muss. Die Verwendung des Black-Scholes-Modells zur gleichzeitigen Preisgestaltung aller Optionen wird jedoch aufgrund der unterschiedlichen impliziten Volatilitäten für jeden Strike unpraktisch. Der Vortrag weist auch darauf hin, dass die impliziten Volatilitäten tendenziell mit längeren Optionslaufzeiten zunehmen, was eine größere Unsicherheit bedeutet. Anhand eines Beispiels wird die Berechnung der impliziten Volatilität anhand von Marktdaten und einer Standard-Call-Option auf 100 Aktien veranschaulicht.
Das Konzept der impliziten Volatilität wird vom Dozenten weiter erläutert. Historische Daten einer Option werden verwendet, um ihre Volatilität mithilfe der Black-Scholes-Gleichung abzuschätzen. Der Dozent betont jedoch, dass diese Schätzung zwar einen bestimmten Preis für die Option vorsieht, der Markt sie jedoch aufgrund ihres zukunftsorientierten Charakters im Gegensatz zur rückwärtsgerichteten historischen Schätzung möglicherweise anders bewertet hat. Trotz dieser Diskrepanz wird der Zusammenhang zwischen den beiden Volatilitäten immer noch für Anlagezwecke genutzt, obwohl der Dozent davor rät, sich rein spekulativ auf diesen Zusammenhang zu verlassen. Anschließend wird in der Vorlesung erläutert, wie die implizite Volatilität mithilfe der Black-Scholes-Gleichung unter Berücksichtigung des Marktpreises und anderer Spezifikationen einer Option berechnet wird. Der Dozent räumt jedoch ein, dass das Konzept der impliziten Volatilität von Natur aus fehlerhaft ist, da es keinen definitiv korrekten Wert gibt und das verwendete Modell eher eine Annäherung als eine tatsächliche Darstellung der Optionspreise darstellt.
Anschließend erklärt der Dozent den Prozess der Ermittlung der impliziten Volatilität mithilfe der Newton-Raphson-Methode, einem iterativen Ansatz. Bei dieser Methode wird eine Funktion basierend auf der Black-Scholes-Gleichung und dem Marktpreis erstellt, um nach Sigma, der impliziten Volatilität, aufzulösen. Der Dozent hebt die Verwendung einer Taylor-Reihenentwicklung zur Berechnung der Differenz zwischen der exakten Lösung und der Iteration hervor, mit dem Ziel, eine Funktion zu finden, bei der die implizite Black-Scholes-Volatilität mit der impliziten Marktvolatilität übereinstimmt. Die Fähigkeit, die implizite Volatilität schnell in Millisekunden zu berechnen, ist für Market Maker von entscheidender Bedeutung, um Arbitragemöglichkeiten zu erkennen und Gewinne zu erzielen.
Das Konzept des iterativen Prozesses zur Berechnung der impliziten Volatilität mithilfe der Newton-Raphson-Methode wird vorgestellt. Der Prozess erfordert mehrere Iterationen, bis die Funktion g gegen Null geht, wobei jeder neue Schritt auf der Grundlage des vorherigen geschätzt wird. Der Dozent betont die Bedeutung der anfänglichen Schätzung für die Konvergenz der Newton-Raphson-Methode. Extrem aus dem Geld liegende Optionen oder Optionen nahe Null können eine Herausforderung darstellen, da die Funktion flach wird, was zu einem kleinen Gradienten führt, der die Konvergenz behindert. Um dieses Problem zu lösen, definieren Praktiker in der Regel ein Raster mit anfänglichen Vermutungen. Der Algorithmus nähert die Funktion anhand ihrer Tangente an und berechnet den x-Achsenabschnitt, wobei steilere Steigungen zu einer schnelleren Konvergenz führen.
Darüber hinaus erläutert der Dozent die Implementierung des Newton-Raphson-Algorithmus zur Berechnung der impliziten Volatilität einer Option. Der Algorithmus basiert auf dem Black-Scholes-Modell mit Eingabeparametern wie Marktpreis, Basispreis, Laufzeit, Zinssatz, anfänglichem Aktienvolumen und anfänglichem Volatilitätsparameter. Die Konvergenz des Algorithmus wird analysiert und eine Fehlerschwelle bestimmt. Der Code wird mit Python demonstriert, wobei die erforderlichen Methoden und Definitionen im Voraus vorbereitet werden und die NumPy- und SciPy-Bibliotheken genutzt werden.
In der Vorlesung geht es ausführlicher um die Berechnung der impliziten Volatilität, wobei der Schwerpunkt auf den für diese Berechnung erforderlichen Eingaben liegt, beispielsweise dem Optionswert und der Ableitung des Call-Preises in Bezug auf den Volatilitätsparameter, bekannt als Vega. Der Kern des Codes besteht aus der schrittweisen Berechnung der impliziten Volatilität, wobei der Dozent Erläuterungen zu den verschiedenen beteiligten Parametern und deren Bedeutung gibt. Die Vorlesung endet mit einer kurzen Demonstration des iterativen Prozesses zur Berechnung der impliziten Volatilität.
Der Redner befasst sich auch mit dem Thema Fehler bei der Berechnung der impliziten Volatilität und wie dieser durch die Unterschiede zwischen Iterationen bestimmt wird. Das Ausgabediagramm zeigt die implizite Volatilität, die für einen Call-Preis, einen Ausübungspreis, eine Laufzeit und andere Parameter erhalten wird. Der Redner veranschaulicht, wie die Konvergenz bei unterschiedlichen anfänglichen Schätzungen der Volatilität variiert, und unterstreicht die Bedeutung dieses Prozesses für die Branchenkalibrierung. Die anfängliche Schätzung muss nahe an der tatsächlichen impliziten Volatilität liegen, damit das Modell erfolgreich konvergiert. Branchenpraktiker versuchen in der Regel verschiedene anfängliche Volatilitäten, bis eine geeignete Konvergenz erreicht ist, und dieser bestimmte Volatilitätswert wird ausgewählt.
Die Vorlesung befasst sich eingehender mit der Interpretation impliziter Volatilitäten. Implizite Volatilitäten können Einblicke in die Markterwartungen und die Marktstimmung geben. Wenn die implizite Volatilität hoch ist, deutet dies darauf hin, dass Marktteilnehmer mit erheblichen Preisschwankungen rechnen, was auf Unsicherheit oder ein wahrgenommenes Risiko des zugrunde liegenden Vermögenswerts hinweisen kann. Umgekehrt deuten niedrige implizite Volatilitäten auf die Erwartung relativ stabiler Preise hin.
Der Vortrag betont, dass implizite Volatilitäten kein Maß für die zukünftige Volatilität sind, sondern vielmehr ein Spiegelbild der Marktpreise. Implizite Volatilitäten werden von verschiedenen Faktoren wie Angebots- und Nachfragedynamik, Marktstimmung und Risikobereitschaft der Marktteilnehmer beeinflusst. Daher ist es von entscheidender Bedeutung, implizite Volatilitäten im Kontext anderer Marktindikatoren und der Fundamentalanalyse zu interpretieren.
Der Dozent beleuchtet auch das Konzept der impliziten Volatilitätsoberflächen oder Volatilitätslächeln. Implizite Volatilitätsflächen stellen die Beziehung zwischen impliziten Volatilitäten und unterschiedlichen Ausübungspreisen und Laufzeiten dar. Unter bestimmten Marktbedingungen können die impliziten Volatilitäten von „out-of-the-money“-Optionen höher oder niedriger sein als die von „at-the-money“-Optionen. Diese Krümmung der impliziten Volatilitätsoberfläche wird als Volatilitätslächeln oder -grinsen bezeichnet. In der Vorlesung wird erklärt, dass das Volatilitätslächeln die Wahrnehmung der Marktteilnehmer hinsichtlich der Wahrscheinlichkeit extremer Preisbewegungen, wie etwa großer Abwärtsrisiken oder unerwarteter positiver Ereignisse, widerspiegelt.
Darüber hinaus behandelt die Vorlesung das Konzept der impliziten Volatilitäts-Termstrukturen. Termstrukturen der impliziten Volatilität stellen die Beziehung zwischen impliziten Volatilitäten und unterschiedlichen Laufzeiten für eine bestimmte Option dar. Der Dozent erklärt, dass Termstrukturen der impliziten Volatilität unterschiedliche Formen aufweisen können, beispielsweise eine aufsteigende (Contango), eine absteigende (Backwardation) oder eine flache Kurve. Diese Laufzeitstrukturen können Einblicke in die Markterwartungen hinsichtlich der zukünftigen Volatilität über verschiedene Zeithorizonte hinweg liefern.
Darüber hinaus befasst sich die Vorlesung mit den Einschränkungen und Herausforderungen im Zusammenhang mit impliziten Volatilitäten. Es wird betont, dass implizite Volatilitäten aus Optionspreisen abgeleitet werden, die von verschiedenen Faktoren und Annahmen beeinflusst werden, darunter Zinssätze, Dividendenrenditen und die Hypothese eines effizienten Marktes. Daher spiegeln implizite Volatilitäten möglicherweise nicht immer genau die tatsächliche zugrunde liegende Volatilität wider.
Darüber hinaus diskutiert die Vorlesung das Konzept der historischen Volatilität und ihren Vergleich zur impliziten Volatilität. Die historische Volatilität wird auf der Grundlage vergangener Preisbewegungen des Basiswerts berechnet, während die implizite Volatilität aus Optionspreisen abgeleitet wird. Der Dozent weist darauf hin, dass die historische Volatilität rückwärtsgerichtet ist und zukünftige Markterwartungen möglicherweise nicht vollständig widerspiegelt, während die implizite Volatilität zukunftsgerichtete Informationen beinhaltet, die in Optionspreisen eingebettet sind.
Abschließend wird die Vorlesung mit einer Zusammenfassung der behandelten Kernpunkte abgeschlossen. Es betont, wie wichtig es ist, die implizite Volatilität, ihre Berechnungsmethoden und ihre Interpretation im Kontext von Optionspreisen und Markterwartungen zu verstehen. Der Dozent ermutigt zu weiteren Untersuchungen und Forschungen in diesem Bereich angesichts seiner Bedeutung für die Finanzmärkte und die Investitionsentscheidung.
wobei die Auswirkung auf die Volatilität je nach Optionslänge unterschiedlich ist. Das Video zeigt auch, wie man die implizite Volatilität berechnet und Pfade mit zeitabhängiger Volatilität generiert und wie sich dies auf die Black-Scholes-Gleichung der impliziten Volatilität auswirkt. Das Video zeigt auch ein Beispiel für die Anpassung unterschiedlicher Volatilitätsniveaus für zwei Optionen mit unterschiedlichen Laufzeiten.
Computational Finance: Vorlesung 5/14 (Sprungprozesse)
Computational Finance: Vorlesung 5/14 (Sprungprozesse)
Im weiteren Verlauf der Vorlesung werden Möglichkeiten untersucht, das Black-Scholes-Modell durch die Einbeziehung von Sprüngen in den Aktienprozess zu verbessern und von einem Diffusionsmodell zu einem Sprung-Diffusionsmodell überzugehen. Der Ausbilder erklärt zunächst die Einbeziehung von Sprüngen in den Stockprozess und gibt eine Definition von Sprüngen. Anschließend demonstrieren sie eine einfache Implementierung eines Sprungprozesses in Python und betonen dabei die Notwendigkeit, Sprünge in einem stochastischen Prozess für Aktien zu verarbeiten und gleichzeitig sicherzustellen, dass das Modell unter dem q-Maß bleibt.
Darüber hinaus befasst sich die Vorlesung mit den Auswirkungen der Einführung von Preissprüngen und deren Auswirkungen auf die Preis-PDE (partielle Differentialgleichung) und führt zusätzliche Integralterme ein. Die Diskussion erstreckt sich auf den Einfluss unterschiedlicher Sprungverteilungen auf implizite Volatilitätsformen und die Verwendung von Konzepten wie Erwartungs-iterierten Erwartungen, der Turmeigenschaft der Erwartung und charakteristischen Funktionen für Sprungprozesse beim Umgang mit komplexen Erwartungen.
Der Dozent betont die Praktikabilität von Sprungprozessen bei der Preisgestaltung von Optionen und der Kalibrierung von Modellen und hebt deren Realismus und Fähigkeit hervor, schwere Schwänze zu berücksichtigen sowie die Kurtosis und Asymmetrie der Lock-and-Turn-Dichte zu kontrollieren. Durch die Einbeziehung eines Sprungprozesses kann eine bessere Anpassung an das implizite Volatilitätslächeln oder den impliziten Volatilitätsversatz erreicht werden, wodurch Sprungprozesse eine günstigere Alternative zum Black-Scholes-Modell darstellen.
Die Vorlesung verschiebt den Schwerpunkt und stellt das Konzept von Sprungprozessen vor, die durch einen Zählvorgang dargestellt werden und nicht mit der Brownschen Bewegung korrelieren. Diese Prozesse werden mithilfe eines zufälligen Poisson-Prozesses modelliert, der durch einen anfänglichen Nullwert und unabhängige Inkremente nach einer Poisson-Verteilung gekennzeichnet ist. Die Rate des Poisson-Prozesses bestimmt die durchschnittliche Anzahl der Sprünge in einem bestimmten Zeitraum. In der Vorlesung wird erklärt, wie man mithilfe von Notation und Erwartungen die durchschnittliche Anzahl von Sprüngen innerhalb eines bestimmten Intervalls für Sprungvorgänge berechnet.
Im Bereich Computational Finance geht der Dozent auf die Simulation von Sprungvorgängen ein, weist darauf hin, dass die Sprunggröße nicht explodieren kann und stellt die damit verbundenen technischen Annahmen dar. Der Prozess umfasst die Definition von Matrizen und Parametern zur Simulation unabhängiger Inkremente unter Verwendung einer Poisson-Verteilung für jedes Inkrement des Sprungprozesses. Die Vorlesung behandelt auch die Nutzung des Poisson-Prozesses im Ethos-Lemma, um die Dynamik von Sprungprozessen für die Aktienbewertung zu erweitern. Im Kontext der Computational Finance stellt die Vorlesung das Konzept der Sprungprozesse vor und erläutert es. Es definiert den Begriff „t-minus“ als die Zeit unmittelbar bevor ein Sprung in einem Prozess auftritt und untersucht die Dynamik des Prozesses anhand des Ethos-Lemmas und der Berechnung von Ableitungen in Bezug auf die Zeit. Der Zusammenhang zwischen der Sprunggröße und der daraus resultierenden Anpassung der Funktion „g“ wird diskutiert und die praktische Relevanz dieser Konzepte bei der Modellierung stochastischer Prozesse hervorgehoben. Die Vorlesung verdeutlicht außerdem, wie wichtig es ist, bei der Modellierung des Börsenverhaltens die Unabhängigkeit von Sprungprozessen und diffusiven Prozessen zu berücksichtigen.
Um die Dynamik einer Funktion „g“ in einem Modell abzuleiten, das sowohl Sprung- als auch Diffusionsprozesse berücksichtigt, konzentriert sich die Vorlesung auf das Verhalten hoher Diffusionskomplexität und die Anwendung des Ito-Lemmas. Das Lemma von Ito wird verwendet, um Kreuzterme wie dxpt quadriert im Kontext erhöhter Modellkomplexität zu verarbeiten. Sobald alle Elemente, einschließlich Drift, Diffusion und Sprünge, kombiniert sind, kann die Dynamik von „g“ mithilfe des Lemmas von Ito abgeleitet werden. Die Erweiterung der Ito-Tabelle wird ebenfalls angesprochen und die Unterschiede zwischen einem Poisson-Prozess und einer Brownschen Bewegung hervorgehoben. Abschließend wird in der Vorlesung der Prozess der Ableitung der Dynamik für eine Funktion „g“ skizziert, die sowohl Sprung- als auch Diffusionsprozesse berücksichtigt.
Im weiteren Verlauf beschreibt die Vorlesung den Prozess zur Ermittlung der Dynamik einer Aktie mit Sprung und Brownscher Bewegung unter dem Q-Maß. Dieser Prozess beinhaltet die Definition einer neuen Variablen und die Bestimmung ihrer Dynamik, um sicherzustellen, dass die Erwartung der Dynamik Null ist. Es wird davon ausgegangen, dass die Sprungkomponente unabhängig von allen anderen Prozessen ist, was zu einem Ausdruck führt, der Terme für Drift, Volatilität und die Erwartung von J minus eins enthält. Dieser Ausdruck wird dann in die Gleichung für das Q-Maß eingesetzt, um sicherzustellen, dass die Dynamik von ST über dem Geldsparkonto ein Martingal ist.
Der Dozent erläutert anschließend, wie ein Modell mit Diffusion und Sprüngen abgeleitet werden kann, und liefert ein Beispiel zur Veranschaulichung der Pfade eines Modells mit zwei Komponenten: Diffusion und Sprung. Der diffusive Teil stellt ein kontinuierliches Verhalten dar, während das Sprungelement eine Diskontinuität einführt, was die Darstellung von Sprungmustern ermöglicht, die bei bestimmten Beständen beobachtet werden. Der Dozent behandelt außerdem die Parameter für den Sprung und den Volatilitätsparameter für die Brownsche Bewegung sowie die Anfangswerte für Aktien und Zinssätze. Um das Verständnis weiter zu verbessern, zeigt der Dozent, wie die Simulation programmiert und die resultierenden Pfade aufgezeichnet werden.
Anschließend wird in der Vorlesung der Erwartungswert von e hoch j erläutert, der analytisch als Erwartungswert einer logarithmischen Normalverteilung berechnet wird. Die Simulation von Poisson-Inkrementen, angetrieben durch c mal pi mal dt, wird durchgeführt, wobei z die Inkremente für eine Normalverteilung darstellt und j die Sprunggröße darstellt. Die Dynamik des Sprungdiffusionsprozesses umfasst sowohl partielle Differentialgleichungen als auch integrale Differentialgleichungen, wobei der Integralteil die Erwartung von Sprunggrößen darstellt. Die Preisgleichung kann durch Portfoliokonstruktion oder durch den charakteristischen Funktionsansatz abgeleitet werden, und die Parameter müssen anhand der Optionspreise auf dem Markt kalibriert werden.
Im Kontext der Portfoliokonstruktion beschreibt die Vorlesung den Prozess der Konstruktion eines Portfolios bestehend aus einer verkauften Option und einer Absicherung mit einer zugrunde liegenden Aktie. Indem sichergestellt wird, dass die Dynamik des Portfolios im gleichen Maße zunimmt wie die des Geldsparkontos, kann eine Preisdifferenzialgleichung abgeleitet werden. Um die gewünschte Dynamik zu erreichen, muss die Aktie dividiert durch das Geldsparkonto ein Martingal sein. Die Vorlesung leitet dann die Bedingung für mu ab und zeigt, dass, sobald die Dynamik festgelegt ist, die Dynamik von v abgeleitet werden kann. Diese Informationen werden dann verwendet, um die Erwartungen zu berechnen und die Dynamik von v abzuleiten.
Der Dozent untersucht weiter die Gleichung für eine Ableitung erster Ordnung nach der Zeit, die ebenfalls nach x erster Ordnung ist und eine Erwartung für einen Wert eines Kontrakts zum Zeitpunkt t mit einem Sprung beinhaltet. Dies führt aufgrund des Vorhandenseins einer Erwartung zu einem Integralterm, was zu einer partiellen Integraldifferentialgleichung (PID) führt, deren Lösung schwieriger ist als reine PDEs. Die Lösung besteht darin, den analytischen Ausdruck für den erwarteten Wert zu finden, der manchmal als unendliche Reihen ausgedrückt werden kann. Die Bedeutung von Randbedingungen und die Umwandlung von PIDs in logarithmische Transformationen für eine verbesserte Konvergenz werden ebenfalls diskutiert.
In Fortsetzung der Diskussion über Sprungprozesse konzentriert sich die Vorlesung auf die Transformation von Sprungprozessen bei PID und PID unter der Deluxe-Option. In der Vorlesung werden zwei gängige Ansätze zur Angabe der Sprunggröße vorgestellt, nämlich das klassische Merchants-Modell und das nichtsymmetrische Doppelexponentialmodell. Während die Kalibrierung des Modells durch das Hinzufügen von Sigma J und Mu J komplizierter wird, begünstigen Praktikabilität und Branchenakzeptanz häufig Modelle mit weniger Parametern. In der Vorlesung wird auch anerkannt, dass das Erreichen von Konvergenz mit zunehmender Dynamik von Sprungprozessen zu einer Herausforderung wird und fortschrittliche Techniken wie den Fourier-Raum oder analytische Lösungen zur Parameterkalibrierung erforderlich macht.
Anschließend wird in der Vorlesung der Prozess der Preisbildung anhand der Monte-Carlo-Simulation für Sprungdiffusionsprozesse erläutert. Bei der Preisgestaltung wird die Erwartung der zukünftigen Auszahlung durch Abzinsung des Barwerts berechnet. Während Methoden wie PIDs und Monte-Carlo-Simulation hinsichtlich der Rechenkomplexität für Simulationen eine gute Leistung erbringen, sind sie möglicherweise nicht ideal für die Preisgestaltung und Modellkalibrierung, da bei der Einführung von Sprüngen die Anzahl der Parameter erheblich zunimmt. Die Vorlesung befasst sich auch mit der Interpretation der Verteilung von Sprüngen und Intensitätsparametern und deren Auswirkungen auf die implizite Volatilität, Smile und Skew. Es wird ein Simulationsexperiment durchgeführt, bei dem Parameter variiert werden, während andere unverändert bleiben, um die resultierenden Auswirkungen auf Sprünge und Schräglage zu beobachten.
Um die Auswirkungen von Volatilität und Intensität von Sprüngen auf die Form des impliziten Volatilitätslächelns und -niveaus zu analysieren, diskutiert der Dozent deren Beziehungen. Die Erhöhung der Volatilität eines Sprungs führt zu einem höheren Grad an Volatilität, während die Intensität der Sprünge auch die Höhe und Form des impliziten Volatilitätslächelns beeinflusst. Diese Informationen sind entscheidend für das Verständnis des Verhaltens von Optionspreisen und die Kalibrierung von Modellen anhand realer Marktdaten.
Anschließend stellt die Vorlesung das Konzept der Tower-Eigenschaft und ihre Anwendung zur Vereinfachung von Finanzproblemen vor. Durch die Konditionierung eines Pfads von einem Prozess zur Berechnung der Erwartung oder des Preises eines anderen Prozesses können Probleme mit mehreren Dimensionen in stochastischen Differentialgleichungen vereinfacht werden. Die Tower-Eigenschaft kann auch auf Probleme in Black-Scholes-Gleichungen mit Volatilitätsparametern und Buchhaltungsprozessen angewendet werden, die bei der Behandlung von Sprungintegralen oft zu Summationen werden. Der Dozent betont die Notwendigkeit, bei diesen Anwendungen Parameterannahmen zu treffen.
Als nächstes diskutiert der Dozent die Verwendung von Fourier-Techniken zur Lösung von Preisgleichungen in der Computational Finance. Fourier-Techniken basieren auf der charakteristischen Funktion, die für einige Sonderfälle in analytischer Form gefunden werden kann. Der Dozent geht ein Beispiel anhand des Merton-Modells durch und erklärt, wie man die charakteristische Funktion für diese Gleichung findet. Durch die Trennung von Erwartungstermen, die unabhängige Teile enthalten, zeigt der Dozent, wie man die Summierung in Form von Erwartungen ausdrückt und so die Bestimmung der charakteristischen Funktion ermöglicht. Der Vorteil der Verwendung von Fourier-Techniken besteht darin, dass sie schnelle Preisberechnungen ermöglichen, die für die Modellkalibrierung und Echtzeitbewertung von entscheidender Bedeutung sind.
Als nächstes diskutiert der Dozent die Verwendung von Fourier-Techniken zur Lösung von Preisgleichungen in der Computational Finance. Fourier-Techniken basieren auf der charakteristischen Funktion, die für einige Sonderfälle in analytischer Form gefunden werden kann. Der Dozent geht ein Beispiel anhand des Merton-Modells durch und erklärt, wie man die charakteristische Funktion für diese Gleichung findet. Durch die Trennung von Erwartungstermen, die unabhängige Teile enthalten, zeigt der Dozent, wie man die Summierung in Form von Erwartungen ausdrückt und so die Bestimmung der charakteristischen Funktion ermöglicht. Der Vorteil der Verwendung von Fourier-Techniken besteht darin, dass sie schnelle Preisberechnungen ermöglichen, die für die Modellkalibrierung und Echtzeitbewertung von entscheidender Bedeutung sind.
Während der gesamten Vorlesung betont der Dozent, wie wichtig es ist, Sprungprozesse zu verstehen und in Computational-Finance-Modelle zu integrieren. Durch die Einbeziehung von Sprüngen können Modelle das Verhalten realer Aktienkurse besser erfassen und genauere Preis- und Kalibrierungsergebnisse liefern. Die Vorlesung beleuchtet auch die Herausforderungen, die mit Sprungprozessen verbunden sind, wie beispielsweise die Komplexität der Lösung integraler Differentialgleichungen und die Notwendigkeit einer sorgfältigen Parameterkalibrierung. Mit den entsprechenden Techniken und Methoden können Sprungprozesse jedoch die Genauigkeit und den Realismus von Computational-Finance-Modellen erheblich verbessern.
Computational Finance: Vorlesung 6/14 (Affine Jump Diffusion Processes)
Computational Finance: Vorlesung 6/14 (Affine Jump Diffusion Processes)
Der Dozent gibt Einblicke in die Auswahl von Preismodellen innerhalb von Finanzinstituten und legt dabei den Schwerpunkt auf die Unterscheidung zwischen Front Office und Back Office. Das Frontoffice wickelt Handelsaktivitäten ab und initiiert Geschäfte, die dann zur Handelspflege und Buchhaltung an das Backoffice übertragen werden. Der Dozent betont die Notwendigkeit, bei der Auswahl eines Preismodells verschiedene Faktoren zu berücksichtigen, darunter Kalibrierung, Risikobewertung, Preisgenauigkeit und Recheneffizienz. Darüber hinaus wird das Konzept charakteristischer Funktionen und affiner Sprungdiffusionsprozesse als Modellklassen eingeführt, die eine effiziente Preisbewertung ermöglichen. Diese Modelle sind in der Lage, schnelle Preisberechnungen durchzuführen und eignen sich daher für den Echtzeithandel. Die Vorlesung befasst sich auch mit Themen wie der Ableitung von Währungsfunktionen, der Framework-Erweiterung durch Jump-Incorporation und dem Workflow der Preisgestaltung und Modellierung in Finanzinstituten.
Die Bedeutung des Verständnisses von Sprungprozessen und ihrer Auswirkungen auf die Preisgenauigkeit wird in der gesamten Vorlesung hervorgehoben, ebenso wie die Herausforderungen, die mit der Lösung integraler Differentialgleichungen und der Kalibrierung von Modellparametern verbunden sind. Durch den Einsatz geeigneter Techniken und Methoden können rechnergestützte Finanzmodelle verbessert werden, um das reale Aktienkursverhalten besser widerzuspiegeln und die Preis- und Kalibrierungsergebnisse zu verbessern.
Darüber hinaus betont der Redner die Rolle des Front Office in Finanzinstituten, insbesondere bei der Gestaltung und Preisgestaltung von Finanzprodukten für Kunden. Das Front Office ist dafür verantwortlich, die passenden Preismodelle für diese Produkte auszuwählen und sicherzustellen, dass die Geschäfte korrekt verbucht werden. Die Zusammenarbeit mit dem Backoffice ist von entscheidender Bedeutung, um die ausgewählten Modelle zu validieren und umzusetzen und sicherzustellen, dass sie für die Risiken und Geschäfte des Instituts geeignet sind. Das Hauptziel des Front Office besteht darin, ein Gleichgewicht zwischen der Bereitstellung wettbewerbsfähiger Preise für Kunden und dem Management von Risiken innerhalb akzeptabler Grenzen zu finden und gleichzeitig einen stetigen Gewinnfluss sicherzustellen.
Der Referent erläutert die wesentlichen Schritte einer erfolgreichen Preisgestaltung, beginnend mit der Spezifikation des Finanzprodukts und der Formulierung stochastischer Differentialgleichungen zur Erfassung der zugrunde liegenden Risikofaktoren. Diese Risikofaktoren spielen eine entscheidende Rolle bei der Festlegung des Preismodells und der anschließenden Preisberechnung. Die richtige Spezifikation und Modellierung dieser Risikofaktoren ist für eine genaue Preisgestaltung und ein genaues Risikomanagement von entscheidender Bedeutung.
In der Vorlesung werden verschiedene Methoden der Preisfindung besprochen, darunter exakte und halbexakte Lösungen, sowie numerische Techniken wie die Monte-Carlo-Simulation. Der Redner betont die Bedeutung der Modellkalibrierung, bei der die Parameter des Preismodells an Marktbeobachtungen angepasst werden. Als schnellere Alternative zur Modellkalibrierung werden Fourier-Techniken eingeführt, die eine effiziente Berechnung von Modellparametern ermöglichen.
Die Vorlesung vergleicht außerdem zwei gängige Ansätze zur Preisgestaltung im Computational Finance: Monte-Carlo-Simulation und partielle Differentialgleichungen (PDEs). Die Monte-Carlo-Simulation wird häufig für hochdimensionale Preisprobleme eingesetzt, ihre Genauigkeit kann jedoch begrenzt sein und sie ist anfällig für Stichprobenfehler. PDEs hingegen bieten Vorteile wie die Möglichkeit, Empfindlichkeiten wie Delta, Gamma und Vega kostengünstig zu berechnen und die Lösungen reibungslos zu gestalten. Der Referent erwähnt, dass Fourier-basierte Methoden in zukünftigen Vorlesungen behandelt werden, da sie schnellere und geeignetere Preisansätze für einfache Finanzprodukte bieten.
Das Konzept der charakteristischen Funktionen wird als Schlüsselinstrument zur Überbrückung der Lücke zwischen Modellen mit bekannten analytischen Wahrscheinlichkeitsdichtefunktionen und solchen ohne bekannte analytische Wahrscheinlichkeitsdichtefunktionen eingeführt. Durch die Verwendung charakteristischer Funktionen wird es möglich, die Wahrscheinlichkeitsdichtefunktion einer Aktie abzuleiten, die für die Preisgestaltung und Risikobewertung von wesentlicher Bedeutung ist.
In der gesamten Vorlesung wird die Bedeutung der Kalibrierung betont. Flüssige Instrumente werden als Referenz für die Kalibrierung verwendet und ihre Parameter werden dann angewendet, um komplexere Derivatprodukte genau zu bewerten. Der Dozent betont die Notwendigkeit, Preismodelle und -techniken kontinuierlich zu verbessern und zu verfeinern, um sich an sich ändernde Marktbedingungen anzupassen und zuverlässige Preisergebnisse zu erzielen.
Zusammenfassend bietet die Vorlesung Einblicke in den Prozess der Auswahl von Preismodellen in Finanzinstituten, wobei der Schwerpunkt auf der Rolle des Front Office, der Modellkalibrierung und Überlegungen zu Risiko, Effizienz und Genauigkeit liegt. Außerdem werden verschiedene Techniken wie Monte-Carlo-Simulation, PDEs und Fourier-basierte Methoden zur Preisgestaltung und Modellkalibrierung vorgestellt. Das Konzept der charakteristischen Funktionen und ihre Bedeutung bei der Ableitung von Wahrscheinlichkeitsdichtefunktionen werden diskutiert, zusammen mit den Herausforderungen und der Bedeutung der Modellverfeinerung und Anpassung an reale Bedingungen.
Computational Finance: Vorlesung 7/14 (Stochastische Volatilitätsmodelle)
Computational Finance: Vorlesung 7/14 (Stochastische Volatilitätsmodelle)
In der Vorlesung befassen wir uns mit dem Konzept stochastischer Volatilitätsmodelle als Alternative zu Black-Scholes-Modellen, die möglicherweise ihre Grenzen haben. Der Redner betont, dass stochastische Volatilitätsmodelle zur Klasse der affinen Diffusionsmodelle gehören, die fortgeschrittene Techniken erfordern, um Preise und implizite Volatilitäten effizient zu ermitteln. Die Motivation hinter der Einbeziehung der stochastischen Volatilität wird erläutert und das zweidimensionale stochastische Volatilitätsmodell von Heston wird vorgestellt.
Ein wichtiger abgedeckter Aspekt ist die Kalibrierung von Modellen auf die gesamte implizite Volatilitätsoberfläche und nicht nur auf einen einzelnen Punkt. Dies ist besonders wichtig, wenn es um pfadabhängige Auszahlungen und Schlagrichtungsabhängigkeiten geht. Praktiker kalibrieren Modelle typischerweise auf liquide Instrumente wie Calls und Puts und extrapolieren sie dann auf die Preise exotischer Derivate. Stochastische Volatilitätsmodelle erfreuen sich auf dem Markt großer Beliebtheit, da sie trotz ihrer inhärenten Einschränkungen eine Kalibrierung auf die gesamte Volatilitätsoberfläche ermöglichen.
Der Vortrag beleuchtet auch die Bedeutung von Volatilitätsflächen am Aktienmarkt und die Notwendigkeit entsprechender Modelle. Wenn die Volatilitätsoberfläche ein steiles Lächeln aufweist, werden häufig Modelle mit Sprüngen oder stochastischer Volatilität bevorzugt. Es werden verschiedene Messgrößen für die Preisgestaltung von Optionen besprochen, darunter das P-Maß und das risikoneutrale Maß. Es wird darauf hingewiesen, dass die zeitabhängige Festlegung der Zinssätze zwar weder das Lächeln noch den Skew verbessert, die Einführung stochastischer oder lokaler Volatilität jedoch bei der Kalibrierung hilfreich sein kann. Außerdem wird das Hassel-Modell vorgestellt, das zur Modellierung der Volatilität Quadratwurzelprozesse mit Mean-Reverting nutzt.
Die Vorlesung befasst sich ausführlich mit dem Konzept stochastischer Volatilitätsmodelle. Zunächst werden ein Normalprozess und eine Brownsche Bewegung verwendet, um eine stochastische Differentialgleichung zu definieren. Es wird jedoch anerkannt, dass dieser Ansatz die Volatilität nicht genau erfassen kann, insbesondere weil sie negativ werden kann. Die Vorteile des Box-Inverse-Prozesses, auch bekannt als CIR-Prozess, werden erklärt, da er fette Ausläufer aufweist und nicht negativ bleibt, was ihn zu einem geeigneten Modell für Volatilität macht. Das Heston-Modell mit seiner stochastischen Volatilitätsstruktur wird eingeführt und es wird gezeigt, dass die Varianz (VT) einer nichtzentralen Chi-Quadrat-Verteilung folgt. Es wird klargestellt, dass es sich bei dieser Verteilung um eine Übergangsverteilung handelt, und die Feller-Bedingung wird als kritische technische Bedingung erwähnt, die bei der Modellkalibrierung überprüft werden muss.
Die Bedingungen für stochastische Volatilitätsmodelle zur Vermeidung von Pfaden, die Null erreichen, werden als Feller-Bedingung bezeichnet. Die Bedingung ist erfüllt, wenn das Zweifache des Produkts aus dem Kappa-Parameter und dem langfristigen Mittel größer oder gleich dem Gamma-Quadrat, dem Volatilitätsquadrat, ist. Wenn die Bedingung nicht erfüllt ist, können Pfade auf Null treffen und zurückspringen, was zu einer erreichbaren Randbedingung führt. Die Eigenschaften nichtzentraler Chi-Quadrat-Verteilungen und ihre Beziehung zu CIR-Prozessen werden erläutert. Varianzpfade und Dichtediagramme werden bereitgestellt, um die Auswirkungen der Erfüllung oder Nichterfüllung der Feller-Bedingung zu veranschaulichen.
Die Bedeutung von Fat-Tailed-Verteilungen in stochastischen Volatilitätsmodellen wird hervorgehoben, da sie häufig nach der Kalibrierung von Modellen anhand von Marktdaten beobachtet werden. Es ist zu beachten, dass, wenn die Feller-Bedingung eines Modells nicht erfüllt ist, Monte-Carlo-Pfade möglicherweise Null erreichen und bei Null bleiben. Die Einbeziehung der Korrelation in Modelle über die Brownsche Bewegung wird erläutert und es wird erwähnt, dass Sprünge typischerweise als unabhängig betrachtet werden. Die Vorlesung endet mit einer Grafik, die den Einfluss der Feller-Bedingung auf die Dichte darstellt.
Der Schwerpunkt der Vorlesung liegt auf Korrelation und Varianz in der Brownschen Bewegung. Der Referent erklärt, dass bei korrelierten Brownschen Bewegungen eine bestimmte Beziehung gelten muss, und das Gleiche gilt auch für Inkremente. Die Technik der Cholesky-Zerlegung wird als Mittel zur Korrelation zweier Brownscher Bewegungen mithilfe einer positiv definiten Matrix und der Multiplikation zweier unterer Dreiecksmatrizen eingeführt. Diese Methode ist hilfreich bei der Formulierung der beiden später in der Vorlesung besprochenen Prozesse.
Die Konstruktion der Multiplikation der unteren Dreiecksmatrix mit unabhängigen Brownschen Bewegungen wird diskutiert, was zu einem Vektor führt, der eine Kombination aus unabhängigen und korrelierten Prozessen enthält.
Darüber hinaus erklärt der Dozent, dass die charakteristische Funktion des Heston-Modells wertvolle Erkenntnisse für eine effiziente und schnelle Preisgestaltung liefert. Durch die Ableitung der charakteristischen Funktion wird deutlich, dass alle beteiligten Terme explizit sind, sodass keine komplexen analytischen oder numerischen Berechnungen zur Lösung gewöhnlicher Differentialgleichungen erforderlich sind. Diese Einfachheit gilt als einer der wesentlichen Vorteile des Heston-Modells und macht es zu einem praktischen und leistungsstarken Instrument zur Preisgestaltung von Derivaten.
Der Redner betont, dass das Verständnis der Merkmale und Auswirkungen jedes Parameters im Heston-Modell von entscheidender Bedeutung für die wirksame Bewältigung der mit der Volatilität verbundenen Risiken ist. Parameter wie Kappa, der langfristige Mittelwert, Volatilität, Korrelation und der Anfangswert des Varianzprozesses haben alle unterschiedliche Auswirkungen auf die Volatilitätsdynamik und die implizite Volatilitätsoberfläche. Durch die Abstimmung dieser Parameter auf den Markt und die Analyse ihrer Auswirkungen können Praktiker wertvolle Erkenntnisse über implizite Volatilitätsschwankungen und -verzerrungen gewinnen und so eine genauere Preisgestaltung und ein genaueres Risikomanagement ermöglichen.
In der Vorlesung wird hervorgehoben, wie wichtig es ist, stochastische Volatilitätsmodelle auf die gesamte implizite Volatilitätsoberfläche und nicht nur auf einen einzelnen Punkt zu kalibrieren. Pfadabhängige Auszahlungen und Abhängigkeiten von der Schlagrichtung erfordern einen umfassenden Kalibrierungsansatz, um die volle Komplexität der Marktdaten zu erfassen. In der Regel kalibrieren Praktiker die Modelle auf liquide Instrumente wie Calls und Puts und extrapolieren sie dann auf die Preise exotischer Derivate. Während stochastische Volatilitätsmodelle eine Kalibrierung auf die gesamte Volatilitätsoberfläche ermöglichen, wird anerkannt, dass der Kalibrierungsprozess nicht perfekt ist und seine Grenzen hat.
Um das Verständnis stochastischer Volatilitätsmodelle weiter zu verbessern, befasst sich der Dozent mit dem Konzept der Fat-Tailed-Verteilungen, die häufig bei der Kalibrierung von Modellen anhand von Marktdaten beobachtet werden. Der Sprecher erklärt, dass, wenn die Feller-Bedingung eines Modells nicht erfüllt ist, die Monte-Carlo-Pfade möglicherweise Null erreichen und bei Null bleiben, was sich auf die Genauigkeit des Modells auswirkt. Darüber hinaus wird die Einbeziehung von Sprüngen und die unabhängige Berücksichtigung von Korrelationen in stochastischen Volatilitätsmodellen diskutiert. Die Vorlesung gibt Einblicke in den Einfluss dieser Elemente auf die Volatilitätsdynamik und die Preisgestaltung.
Die Vorlesung schließt mit einem Vergleich des Heston-Modells mit dem Black-Scholes-Modell. Während das Heston-Modell eine größere Flexibilität und Stochastik bei der Modellierung der Volatilität bietet, bleibt das Black-Scholes-Modell ein Maßstab für die Preisgestaltung von Derivaten. Das Verständnis der Auswirkungen verschiedener Parameteränderungen auf implizite Volatilitäts-Smiles und -Skews ist für Praktiker von entscheidender Bedeutung, um das geeignete Modell für ihre spezifischen Anforderungen auszuwählen. Durch umfassende Kalibrierung und Analyse können stochastische Volatilitätsmodelle wie das von Heston wertvolle Einblicke in die Preisgestaltung und das Risikomanagement auf den Finanzmärkten liefern.
Neben der Diskussion des Heston-Modells befasst sich die Vorlesung mit der Bedeutung von Korrelation und Varianz in der Brownschen Bewegung. Der Referent erklärt, dass beim Umgang mit korrelierten Brownschen Bewegungen bestimmte Beziehungen und Bedingungen zutreffen müssen, einschließlich der Verwendung der Cholesky-Zerlegung. Diese Technik ermöglicht die Korrelation zweier Brownscher Bewegungen mithilfe einer positiv definiten Matrix und der Multiplikation zweier unterer Dreiecksmatrizen. In der Vorlesung wird betont, dass diese Methode für die Formulierung von Prozessen in mehrdimensionalen Fällen und das Erreichen der gewünschten Korrelationsstruktur unerlässlich ist.
Darüber hinaus liegt der Schwerpunkt des Dozenten auf der Konstruktion und Darstellung unabhängiger und korrelierter Brownscher Bewegungen in stochastischen Volatilitätsmodellen. Während die Cholesky-Zerlegung ein nützliches Werkzeug zur Korrelation Brownscher Bewegungen ist, wird in der Vorlesung darauf hingewiesen, dass sie für praktische Zwecke nicht immer notwendig ist. Stattdessen kann das Lemma von Ito angewendet werden, um korrelierte Brownsche Bewegungen effektiv einzubeziehen. Die Vorlesung bietet Beispiele für den Aufbau von Aktienportfolios mit korrelierten Brownschen Bewegungen und zeigt, wie man das Lemma von Ito anwendet, um die Dynamik mehrdimensionaler Funktionen mit mehreren Variablen zu bestimmen.
Die Vorlesung behandelt auch die Preisbildungs-Partialdifferentialgleichung (PDE) für das Heston-Modell unter Verwendung eines Martingal-Ansatzes. Bei diesem Ansatz muss sichergestellt werden, dass eine bestimmte Größe namens Pi, die das Verhältnis der Volatilität zum langfristigen Mittel darstellt, ein Martingal ist. Durch Anwendung des Ethos-Lemmas leitet die Vorlesung die Gleichung für das Martingal ab, die Ableitungen und den Varianzprozess beinhaltet. Die Pricing-PDE ermöglicht die Ermittlung fairer Preise für Derivatekontrakte und die Verwendung des risikoneutralen Maßes bei der Preisgestaltung.
Darüber hinaus diskutiert der Referent den Einfluss verschiedener Parameter auf die implizite Volatilitätsform in stochastischen Volatilitätsmodellen. Parameter wie Gamma, Korrelation und die Geschwindigkeit der Mittelwertumkehr (Kappa) beeinflussen nachweislich die Krümmung, Schiefe und Termstruktur impliziter Volatilitäten. Das Verständnis der Auswirkungen dieser Parameter hilft bei der genauen Kalibrierung der Modelle und der Erfassung der gewünschten Volatilitätsdynamik.
Während des gesamten Vortrags betont der Redner die Bedeutung der Modellkalibrierung, insbesondere für die gesamte implizite Volatilitätsoberfläche. Die Kalibrierung auf liquide Instrumente und die Extrapolation auf exotische Derivate ist unter Praktikern eine gängige Praxis. Stochastische Volatilitätsmodelle, einschließlich des Heston-Modells, bieten die Flexibilität, sich auf die gesamte Volatilitätsoberfläche zu kalibrieren, was eine bessere Genauigkeit bei der Preisgestaltung und dem Risikomanagement ermöglicht. Es wird jedoch anerkannt, dass die Modellkalibrierung nicht ohne Einschränkungen erfolgt und dass subtile Unterschiede zwischen Modellen, wie z. B. dem Heston- und dem Black-Scholes-Modell, sorgfältig untersucht werden sollten, um eine angemessene Preisgestaltung und Risikobewertung sicherzustellen.
Die Vorlesung bietet einen umfassenden Überblick über stochastische Volatilitätsmodelle und konzentriert sich dabei auf das Heston-Modell, seine Parameterimplikationen, Kalibrierungstechniken und die Rolle von Korrelation und Varianz in der Brownschen Bewegung. Durch das Verständnis und die effektive Anwendung dieser Konzepte können Praktiker ihre Fähigkeit verbessern, Derivate zu bewerten, Risiken zu verwalten und sich in der Komplexität der Finanzmärkte zurechtzufinden.
Computational Finance: Vorlesung 8/14 (Fourier-Transformation für Optionspreise)
Computational Finance: Vorlesung 8/14 (Fourier-Transformation für Optionspreise)
Während der Vorlesung zur Fourier-Transformation zur Optionspreisgestaltung geht der Dozent auf die Anwendung der Technik und verschiedene Aspekte ein. Sie erklären zunächst, dass die Fourier-Transformation verwendet wird, um die Dichte und effiziente Preisoptionen für Modelle zu berechnen, die unter die Klasse der Feindiffusionsmodelle fallen. Bei dieser Technik wird ein Integral über die reale Achse berechnet, was rechenintensiv sein kann. Durch die Verwendung des Inversionslemmas erläutert der Dozent jedoch, wie der Definitionsbereich für „u“ reduziert werden kann, um die Berechnung des Realteils des Integrals zu ermöglichen. Dieser Ansatz trägt dazu bei, den mit teuren Berechnungen verbundenen Rechenaufwand zu minimieren.
Der Dozent geht außerdem auf die Verbesserung dieser Darstellung durch die schnelle Fourier-Transformation (FFT) ein, die die Implementierungseffizienz erheblich steigert. Durch die Nutzung der Eigenschaften von FFT wird der Rechenaufwand reduziert, wodurch die Optionspreisgestaltung effizienter und schneller erfolgt. Die Sitzung endet mit einem Vergleich zwischen der Fourier-Transformationsmethode und der Kostenmethode und bietet Einblicke in die jeweiligen Implementierungsdetails.
Im weiteren Verlauf befasst sich der Dozent mit dem ersten Schritt bei der Ableitung einer schnellen Methode zur Berechnung der Dichte mithilfe der Fourier-Transformation. Dieser Schritt umfasst die Aufteilung der Domäne in zwei Teile und die Extraktion des Realteils, was eine rechenintensive Operation darstellt. Darüber hinaus untersucht der Dozent die Division komplexer Zahlen und die Bedeutung der Konjugatbildung, da sie effizientere Berechnungen der charakteristischen Funktion ermöglicht. Außerdem wird die Konstruktion eines Gitters zur Ermittlung der Dichte für jeden „x“-Wert besprochen, wobei die Bedeutung der Auswahl geeigneter Domänen und der Definition von Grenzen hervorgehoben wird.
Im Anschluss an die Vorlesung wird die Berechnung der Dichte von „x“ anhand eines Fourier-Transformationsintegrals und eines Gitters aus „n“ Gitterpunkten erläutert. Der Dozent betont die Notwendigkeit, Dichteberechnungen für mehrere „x“-Werte gleichzeitig durchzuführen. Sobald die Gitter definiert sind, wird ein neues Integral mit einer Funktion namens „Gamma“ eingeführt und eine trapezförmige Integration wird verwendet, um das diskrete Integral anzunähern. Um diesen Prozess zu veranschaulichen, liefert der Dozent ein Beispiel für die Durchführung einer Trapezintegration für eine Funktion mit einem gleichmäßig verteilten Gitter.
Anschließend befasst sich der Referent mit dem Prozess der Parameterkonfiguration zur Definition des Rasters für die Fourier-Transformation. Diese Parameter umfassen die Anzahl der Gitterpunkte, den Maximalwert von „u“ und die Beziehung zwischen Delta „x“ und Delta „u“. Sobald diese Parameter festgelegt sind, können Integrale und Summationen ersetzt werden, wodurch die Ableitung einer Funktion für jeden „x“-Wert ermöglicht wird. Die Vorlesung beinhaltet eine Gleichung, die die Trapezintegration und charakteristische Funktionen umfasst, die an den Randknoten des Trapezes ausgewertet werden.
Die Darstellung des Integrals und die Bedeutung der Verwendung der schnellen Fourier-Transformation (FFT) bei der Optionspreisgestaltung werden ausführlich besprochen. Der Referent erklärt, dass Praktiker durch die Definition einer für die Eingabe in FFT geeigneten Funktion die schnellen Auswertungs- und Implementierungsmöglichkeiten nutzen können, die in den meisten Bibliotheken bereits vorhanden sind. Anschließend erklärt der Dozent die Schritte zur Berechnung dieser Transformation und wie sie zur Berechnung von Integralen genutzt werden kann. Insgesamt unterstreicht die Vorlesung die Bedeutung von FFT in der Computational Finance und ihren Nutzen bei der Optionspreisgestaltung.
Zusätzlich zu den oben genannten Themen werden in der Vorlesung verschiedene Aspekte im Zusammenhang mit der Fourier-Transformation zur Optionspreisgestaltung beleuchtet. Dazu gehören die Verwendung von Interpolationstechniken, um genaue Berechnungen für eine diskrete Anzahl von Punkten sicherzustellen, die Beziehung zwischen der Taylor-Reihe und der charakteristischen Funktion, die Anwendung der Kosinus-Entwicklungsmethode für gerade Funktionen und die Verwendung abgeschnittener Domänen zur Annäherung an die Dichte. Die Vorlesung behandelt außerdem die Wiederherstellung der Dichte, die numerischen Ergebnisse, die mittels Fourier-Entwicklung erzielt werden, und die Preisdarstellung in Form von Matrizen und Vektoren.
Während der gesamten Vorlesung legt der Dozent Wert auf die praktische Umsetzung der Fourier-Transformationsmethode, erörtert die Auswirkungen verschiedener Parameter und hebt die Vorteile und Grenzen des Ansatzes hervor. Durch die Bereitstellung umfassender Erklärungen und numerischer Experimente vermittelt die Vorlesung den Lernenden das nötige Wissen und die nötigen Werkzeuge, um die Fourier-Transformation für die Optionspreisgestaltung in realen Szenarien anzuwenden.
Anschließend diskutiert der Dozent die Wiederherstellung der Dichtefunktion in der Fourier-Transformation für die Optionspreisgestaltung. Sie betonen, wie wichtig es ist, bei der Transformation eine ausreichend große Anzahl von Punkten (bezeichnet als „n“) auszuwählen, um Dichteberechnungen mit hoher Genauigkeit zu erzielen. Der Dozent führt die komplexe Zahl „i“ ein, um den Definitionsbereich und das Maximum zu definieren, wobei „u_max“ durch die Verteilung bestimmt wird. Darüber hinaus erläutert der Dozent die Notwendigkeit der Interpolation, insbesondere der Verwendung kubischer Interpolation an den Gitterpunkten „x_i“, um eine genaue Berechnung der Leistungsdichtefunktion auch für Eingaben sicherzustellen, die nicht auf dem Gitter liegen.
Der Redner untersucht außerdem die Vorteile der Interpolation und ihre Relevanz für die Optionspreisgestaltung mithilfe der Fourier-Transformation. Während die Fourier-Transformation für größere Gitter von Vorteil ist, kann die Interpolation bei größeren Zahlen bevorzugt werden, da sie vergleichsweise weniger rechenintensiv ist als die FFT. Der Referent demonstriert anhand von Codebeispielen, wie die Interpolation funktioniert, und betont, dass es durch die Anpassung von Parametern möglich wird, Sensitivitäten zu berechnen und Griechen ohne zusätzliche Kosten zu erhalten. Diese Funktion macht die Kosinus-Erweiterungstechnik ideal für die Preisgestaltung exotischerer Derivate wie Barriere- und Bermuda-Optionen.
Darüber hinaus diskutiert der Dozent den Zusammenhang zwischen der Taylor-Reihe und der charakteristischen Funktion in der Computational Finance. Die Vorlesung zeigt die Eins-zu-Eins-Entsprechung zwischen der Reihe und der charakteristischen Funktion und ermöglicht direkte Beziehungen, ohne dass zusätzliche Integrale erforderlich sind. Anschließend beschreibt der Dozent die „Cos-Methode“ zur Optionspreisgestaltung, die eine Fourier-Cosinus-Entwicklung verwendet, um gerade Funktionen um Null darzustellen. Bei dieser Methode werden Integrale und Koeffizienten berechnet, wobei der entscheidende Hinweis besteht, dass der erste Term der Entwicklung immer mit der Hälfte multipliziert werden sollte.
In der Vorlesung wird der Prozess der Änderung des Integrationsbereichs für die Funktion „g“ genauer betrachtet, um einen endlichen Unterstützungsbereich von „a“ bis „b“ zu erreichen. Der Referent erklärt die Bedeutung der Euler-Formel für die Vereinfachung des Ausdrucks und zeigt, wie das Ersetzen von „u“ durch „k pi dividiert durch ba“ zu einem einfacheren Ausdruck führt, der die Dichte einbezieht. Die abgeschnittene Domäne wird durch ein Hutsymbol gekennzeichnet und spezifische Werte für die Parameter „a“ und „b“ werden basierend auf dem zu lösenden Problem ausgewählt. Der Redner betont, dass es sich hierbei um eine Näherungstechnik handelt und dass bei der Auswahl der Werte von „a“ und „b“ heuristische Entscheidungen eine Rolle spielen.
Darüber hinaus untersucht die Vorlesung den Zusammenhang zwischen Fourier-Expansion und der Wiederherstellung der Dichte. Durch die Verwendung der Realteile beider Seiten der Gleichung demonstriert die Vorlesung die Euler-Formel, die es ermöglicht, das Integral der Dichte als Realteil der charakteristischen Funktion auszudrücken. Diese elegante und schnelle Methode erleichtert das Auffinden der Beziehungen zwischen Integralen der Zielfunktion und der charakteristischen Funktion mithilfe der Definition der charakteristischen Funktion. Die Kostenmethode zielt darauf ab, diese Beziehungen zu ermitteln, um Ausdehnungskoeffizienten zu berechnen und die Dichte wiederherzustellen. Obwohl die Methode Fehler aus der unendlichen Summierung und dem Trunkierungsbereich mit sich bringt, sind diese Fehler leicht zu kontrollieren.
Der Schwerpunkt der Vorlesung liegt dann auf der Zusammenfassung der Fourier-Cosinus-Entwicklung, die bereits mit wenigen Termen eine hohe Genauigkeit erreichen kann. Ein numerisches Experiment mit einer normalen Wahrscheinlichkeitsdichtefunktion (PDF) wird durchgeführt, um die Fehlergenerierung basierend auf der Anzahl der Terme zu untersuchen, einschließlich der Zeitmessung. Das Code-Experiment ist so strukturiert, dass die Dichte mithilfe der Kosinus-Methode generiert wird, wobei der Fehler als maximale absolute Differenz zwischen der mithilfe der Kosinus-Methode ermittelten Dichte und dem exakten normalen PDF definiert wird. Die Kosinusmethode erfordert nur wenige Codezeilen, um die Dichte mithilfe der charakteristischen Funktion wiederherzustellen, die das Herzstück der Methode ist.
Darüber hinaus diskutiert der Referent die numerischen Ergebnisse der Fourier-Entwicklung, die mithilfe der Matrixnotation effizient durchgeführt werden können. Der Fehler nimmt mit zunehmender Anzahl der Erweiterungsterme ab, wobei mit 64 Termen ein Fehler von nur 10^-17 erreicht wird. Die Verwendung einer geringeren Anzahl von Termen kann zu Schwankungen oder einer schlechteren Anpassung führen. Der Redner weist darauf hin, dass Parameter wie die Domäne und die Anzahl der Erweiterungsterme sorgfältig abgestimmt werden sollten, insbesondere bei Verteilungen mit starken Tails. Darüber hinaus wird in der Vorlesung hervorgehoben, dass die logarithmische Normaldichte auch mithilfe der normalen charakteristischen Funktion modelliert werden kann.
Im weiteren Verlauf befasst sich der Dozent mit dem logarithmischen Normalfall und erklärt, wie sich seine Dichte von der Normalverteilung unterscheidet. Aufgrund der logarithmischen Normalverteilung ist typischerweise eine höhere Anzahl von Erweiterungstermen erforderlich. Der Dozent betont, wie wichtig es ist, eine angemessene Anzahl von Begriffen für eine bestimmte Verbreitungsart und Domäne auszuwählen.
In der Vorlesung wird betont, dass die Kostenmethode besonders nützlich für die Wiederherstellung der Dichte ist und häufig für die Preisgestaltung von Derivaten eingesetzt wird, beispielsweise für Optionen europäischen Typs, bei denen nur eine Zahlung bei Fälligkeit erfolgt. Anschließend erklärt der Dozent, wie die Preisgestaltung funktioniert und wie das Produkt aus Dichte und Auszahlungsfunktion in das risikoneutrale Maß integriert wird.
Im weiteren Verlauf der Vorlesung diskutiert der Redner exotischere Optionen, bei denen eine Konnektivitätsfunktion abgeleitet und Kosinuswerte verwendet werden können. Der Begriff „Übergangsdichten“ wird eingeführt und bezieht sich auf die Verteilungen, die den Übergang von einem Punkt auf der Zeitachse zu einem anderen beschreiben. Der Anfangswert wird durch die Verteilung einer Zufallsvariablen angegeben. In der Präsentation wird außerdem die Kürzung der Dichte untersucht, bei der die Dichte auf ein bestimmtes Intervall begrenzt wird. Es wird die Gaußsche Quadraturmethode erläutert, bei der eine Summierung der Realteile einer charakteristischen Funktion multipliziert mit einem Exponenten integriert wird.
Die Vorlesung führt in das Konzept des angepassten Log-Asset-Preises ein, der als Logarithmus der Aktie bei Fälligkeit dividiert durch einen Skalierungskoeffizienten definiert ist. Es wird eine alternative Darstellung der Auszahlung vorgestellt, und der Sprecher stellt fest, dass die Wahl von „v“ direkten Einfluss auf den Koeffizienten „h_n“ hat. Dieser Ansatz kann zur Bewertung der Auszahlungen für mehrere Ausübungspreise verwendet werden und bietet eine praktische Methode zur gleichzeitigen Preisgestaltung von Optionen zu verschiedenen Ausübungspreisen.
Als nächstes befasst sich der Redner mit dem Prozess der Berechnung des Integrals einer Auszahlungsfunktion multipliziert mit der Dichte unter Verwendung von Exponential- und Kosinusfunktionen in der Fourier-Transformation für die Optionspreisgestaltung. Es wird eine generische Form für die beiden beteiligten Integrale bereitgestellt und verschiedene Koeffizienten ausgewählt, um verschiedene Auszahlungen zu berechnen. Der Redner betont, wie wichtig es ist, diese Technik für mehrere Strikes implementieren zu können und die Preisgestaltung für alle Strikes auf einmal zu ermöglichen, was Zeit spart und den Rechenaufwand reduziert. Abschließend wird die Preisdarstellung in Form einer mit einem Vektor multiplizierten Matrix dargestellt.
Die Implementierungsformel für die Fourier-Transformation bei der Optionspreisgestaltung wird diskutiert, einschließlich der Vektorisierung von Elementen und Matrixmanipulationen. Die Vorlesung erklärt den Prozess, „k“ als Vektor zu nehmen und eine Matrix mit „n_k“-Strikes zu erstellen. Realteile werden berechnet, um komplexe Zahlen zu verarbeiten. Die charakteristische Funktion ist von großer Bedeutung, da sie nicht von „x“ abhängt und eine Schlüsselrolle bei der Erzielung effizienter Implementierungen für Mehrfachschläge spielt. Die Genauigkeit und Konvergenz der Implementierung hängen von der Anzahl der Terme ab und es wird ein Beispielvergleich angezeigt.
Darüber hinaus befasst sich der Referent mit dem Code, der für die Fourier-Transformationsmethode bei der Optionspreisgestaltung verwendet wird, und erläutert die verschiedenen beteiligten Variablen. Sie führen das Konzept eines Bereichs für die Koeffizienten „a“ und „b“ ein, der für Sprungdiffusionsmodelle typischerweise bei 10 oder 8 gehalten wird. Der Code enthält einen Lambda-Ausdruck für die charakteristische Funktion, bei der es sich um eine generische Funktion handelt, die an verschiedene Modelle angepasst werden kann. Der Redner betont die Bedeutung der Zeitmessung durch die Durchführung mehrerer Iterationen desselben Experiments und die Berechnung der Durchschnittszeit. Abschließend veranschaulichen sie die Kostenmethode und wie sie den Integrationsbereich nutzt, um eine große Volatilität anzunehmen.
Die Vorlesung wird mit einer Erläuterung des Prozesses der Definition von Strikes und der Berechnung von Koeffizienten für die Fourier-Transformationsmethode der Optionspreisgestaltung fortgesetzt. Der Dozent betont, dass eine Optimierung der Modellparameter zwar zu einer besseren Konvergenz führen kann und weniger Terme für die Auswertung erfordert, es jedoch im Allgemeinen sicher ist, bei den Standardmodellparametern zu bleiben. Sie beschreiben detailliert die Schritte zum Definieren einer Matrix und zum Durchführen einer Matrixmultiplikation, um den abgezinsten Ausübungspreis zu erhalten, wobei der resultierende Fehler mit dem der exakten Lösung verglichen wird. In der Vorlesung wird hervorgehoben, dass der Fehler von der Anzahl der Terme und dem gewählten Strike-Bereich abhängt.
Anschließend stellt der Referent einen Vergleich verschiedener Methoden zur Optionspreisgestaltung vor, darunter die Fast Fourier Transform (FFT)-Methode und die Cosinus-Methode. Sie erklären, dass die FFT-Methode für eine große Anzahl von Gitterpunkten besser geeignet ist, während die Cosinus-Methode für eine kleinere Anzahl von Gitterpunkten effizienter ist. Der Dozent demonstriert die Berechnung von Optionspreisen mit beiden Methoden und vergleicht die Ergebnisse.
Darüber hinaus befasst sich die Vorlesung mit der Anwendung Fourier-basierter Methoden in anderen Bereichen des Finanzwesens, beispielsweise dem Risikomanagement und der Portfoliooptimierung. Der Dozent erklärt, dass mit Fourier-basierten Methoden Risikomaße wie Value-at-Risk (VaR) und Conditional Value-at-Risk (CVaR) geschätzt werden können. Durch die Kombination von Fourier-Methoden mit Optimierungstechniken ist es möglich, optimale Portfolioallokationen zu finden, die das Risiko minimieren oder die Rendite maximieren.
Die Vorlesung endet mit einer Zusammenfassung der wichtigsten Punkte, die in der Präsentation besprochen wurden. Fourier-Transformationstechniken stellen ein leistungsstarkes Werkzeug für die Optionspreisgestaltung und andere Finanzanwendungen dar. Die Cosinus-Methode ermöglicht eine effiziente und genaue Preisgestaltung von Optionen durch Nutzung der charakteristischen Funktion und der Fourier-Entwicklung. Die Wahl der Parameter, wie z. B. die Anzahl der Terme und die Domäne, beeinflusst die Genauigkeit und Konvergenz der Methode. Darüber hinaus können Fourier-basierte Methoden auf verschiedene finanzielle Probleme über die Optionspreisgestaltung hinaus erweitert werden.
Insgesamt bietet die Vorlesung einen umfassenden Überblick über Fourier-Transformationstechniken bei der Optionspreisgestaltung und behandelt Themen wie die Wiederherstellung der Dichte, Interpolation, die Cos-Methode, logarithmische Normalverteilungen, Multiple Strikes, Überlegungen zur Implementierung und Vergleiche mit anderen Preismethoden. Die Erläuterungen und Codebeispiele des Dozenten veranschaulichen die praktische Anwendung dieser Techniken im Finanzwesen und verdeutlichen deren Vorteile hinsichtlich Genauigkeit und Effizienz.