Quantitativer Handel - Seite 32

 

Two Sigma präsentiert Deep Learning für Sequenzen in der Quantitative Finance David Kriegman


Two Sigma präsentiert Deep Learning für Sequenzen in der Quantitative Finance David Kriegman

Während des Vortrags stellt der Referent die Veranstaltung vor und liefert Hintergrundinformationen zu Two Sigma, einem renommierten Finanzwissenschaftsunternehmen, das wissenschaftliche Methoden im Finanzbereich anwendet. Sie heben hervor, dass Two Sigma in mehreren Geschäftsbereichen des Finanzsektors tätig ist, darunter quantitative Hedgefonds, Broker-Dealer-Dienste, private Investitionen, Versicherungen und Anlegerlösungen. Der Redner betont die Vielfalt der Hintergründe des Publikums und weist darauf hin, dass sich der Vortrag an Personen aller Fachkenntnisse richtet und zeigt, wie Deep Learning effektiv in der quantitativen Finanzierung eingesetzt werden kann. Sie erwähnen insbesondere, dass Two Sigma weltweit etwa 1600 Fachkräfte beschäftigt, von denen 600 einen höheren Abschluss und über 200 einen Doktortitel besitzen.

Anschließend stellt der Redner das Konzept des Deep Learning für Sequenzen vor und veranschaulicht dessen Auswirkungen auf verschiedene Anwendungen im letzten Jahrzehnt. Sie bieten Beispiele wie Stimmungsklassifizierung, Videoaktivitätserkennung und maschinelle Übersetzung. Der Sprecher erklärt, dass es bei Sequenzverarbeitungsaufgaben darum geht, Sequenzen als Eingabe zu nehmen und Sequenzen als Ausgabe zu generieren, die unterschiedlich lang sein können. Konkret diskutieren sie die Anwendung von Deep Learning bei der Vorhersage von Börsenwerten anhand historischer Sequenzen. Der Redner unterstreicht, wie wichtig es ist, sowohl die Höhepunkte als auch die Tiefpunkte vorherzusagen, um die Rentabilität zu maximieren.

Als nächstes befasst sich der Redner mit der typischen quantitativen Investitionspipeline im Finanzwesen, die eine Abfolge von Prozessen umfasst, die bei Investitionsentscheidungen eine Rolle spielen. Sie skizzieren die beiden Schlüsselphasen der Pipeline: Alpha-Modellierung und Merkmalsextraktion. Bei der Alpha-Modellierung wird die Richtung der Aktienkurse mithilfe von Mean-Reversion-Modellen oder Momentum-Modellen vorhergesagt. Die Merkmalsextraktion konzentriert sich auf die Extraktion technischer Merkmale aus dem Markt, wie z. B. Preis, Volumen und Geld-Brief-Spanne. Der Referent betont, dass diese Prozesse letztendlich zu Kauf- oder Verkaufsentscheidungen auf den Märkten führen, mit dem Ziel, Gewinne zu erwirtschaften und Verluste zu minimieren. Sie betonen, wie wichtig es ist, emotionale Entscheidungen zu vermeiden, und betonen die Bedeutung der Diversifizierung von Portfolios im Finanzbereich.

Anschließend betritt David Kriegman von Two Sigma die Bühne, um die Faktoren zu diskutieren, die eine entscheidende Rolle bei fundierten Entscheidungen im Aktienhandel spielen. Der erste hervorgehobene Faktor ist die Erhebung grundlegender Daten, die durch direkte Berichte von Unternehmen gewonnen oder aus öffentlich zugänglichen Informationen abgeleitet werden können. Darüber hinaus kann eine Stimmungsanalyse durch die Interpretation unstrukturierter Daten durchgeführt werden, die aus Quellen wie Nachrichten, sozialen Medien und Analystenkommentaren stammen. Der Redner stellt die Idee vor, nicht-traditionelle Quellen wie die Anzahl der Autos auf einem Parkplatz oder die Überlastung von Containerschiffen in einem Hafen zu nutzen, um Informationen zu sammeln, die Aufschluss über die Wertentwicklung einer bestimmten Aktie geben können. Nachdem das Alpha-Modell zur Vorhersage der Aktienentwicklung eingesetzt wurde, besteht der nächste Schritt in der Pipeline in der Portfoliooptimierung. Dieser Schritt erfordert häufig die Lösung umfangreicher Optimierungsprobleme und die Berücksichtigung von Faktoren wie dem aktuellen Aktienbestand, dem Vertrauen in die Prognosen, Diversifizierungsanforderungen und den damit verbundenen Handelskosten. In der Ausführungsphase schließlich werden mithilfe eines Modells Entscheidungen über Auftragsgröße, -platzierung und -typ getroffen, um die möglichen Auswirkungen dieser Maßnahmen zu verstehen.

Um auf das Thema Deep Learning zurückzukommen, hebt der Redner die sequentielle Natur der quantitativen Finanzentscheidungspipeline hervor. Anschließend verlagern sie den Fokus auf Deep Learning und beschreiben es als eine Art neuronales Netzwerk, das durch mehrere Schichten gekennzeichnet ist. Der Redner erörtert bedeutende Entwicklungen bei neuronalen Netzen seit ihrer ersten Einführung in den 1950er Jahren, einschließlich der Entstehung neuer Netzwerkarchitekturen, der Verfügbarkeit umfangreicher Trainingsdatensätze und Fortschritte bei der parallelen Berechnung. Um die Grundidee eines einzelnen Perzeptrons zu veranschaulichen, erklärt der Sprecher, wie es Eingaben entgegennimmt, eine gewichtete Summe berechnet und das Ergebnis durch eine nichtlineare Funktion weiterleitet. Sie erwähnen, dass die traditionelle Aktivierungsfunktion, ein Schwellenwert, durch eine Alternative namens Rectified Linear Unit (ReLU) ersetzt wurde, die Null für Werte unterhalb eines Schwellenwerts und den tatsächlichen Wert für höhere Werte ausgibt.

Weiter zum Thema neuronale Netze stellt der Referent das Konzept eines mehrschichtigen Perzeptrons vor. In dieser Architektur stellt jeder Kreis ein Perzeptron mit seiner eigenen Aktivierungsfunktion und seinem eigenen Gewichtungssatz dar. Dies kann durch ein Paar Gewichtsmatrizen dargestellt werden, was die Erstellung größerer Netzwerke ermöglicht. Anschließend geht der Redner auf die Anwendung neuronaler Netze zur Alpha-Modellierung ein, insbesondere bei der Vorhersage von Aktienkursen auf der Grundlage historischer Wertentwicklungen. Das Netzwerk wird mithilfe einer Reihe von Trainingsdaten trainiert, die sowohl Funktionen als auch Preisdaten umfassen, mit dem Optimierungsziel, den Gesamtverlust zu minimieren. Dieser Trainingsprozess umfasst verschiedene Techniken wie Backpropagation und stochastischen Gradientenabstieg.

Um das Alpha-Modell weiter zu verbessern, erklärt der Redner, wie wichtig es ist, mehrere Funktionen zu integrieren, anstatt sich auf ein einziges Signal wie den Preis oder die Vergangenheit zu verlassen. Durch die Kombination aller relevanten Funktionen kann ein leistungsfähigeres und genaueres Modell erstellt werden. Allerdings kann die Verwendung eines vollständig verbundenen Netzwerks bei diesem Ansatz zu einem Problem führen, das als „Fluch der Dimensionalität“ bekannt ist, da die Anzahl der Gewichte extrem groß wird und nicht alle effektiv trainiert werden können. Um diese Herausforderung zu meistern, stellt der Redner eine weitere Klasse von Sequenzverarbeitungsnetzwerken vor, die als rekurrente neuronale Netzwerke (RNNs) bezeichnet werden. Diese Netzwerke führen einen Gedächtnisaspekt ein und geben Informationen rückwärts weiter, wobei sie mit jedem Zeitpunkt einen Zustand aufbauen. Dadurch wird das Problem einer übermäßigen Anzahl an Gewichten gemildert. In RNNs werden die Gewichte zwischen den einzelnen Elementen geteilt, wodurch das Netzwerk tief wird und eine handhabbare Lösung bereitgestellt wird.

Der Redner beleuchtet die Schwierigkeiten beim Training tiefer Netzwerke und wie Gated Networks wie Gated Recurrent Units (GRUs) und Long Short-Term Memory (LSTM)-Netzwerke diese Herausforderungen bewältigen. Gated-Netzwerke umfassen analoge Gates, die den Informationsfluss steuern und die Aktualisierung früherer Zustände durch potenzielle neue Zustände ermöglichen. Die Komponenten dieser Netzwerke sind differenzierbar, sodass sie mithilfe von Backpropagation trainiert werden können. Im Vergleich zu LSTMs verfügen GRUs über längere Speicherkapazitäten.

Der Redner diskutiert verschiedene Architekturen, die beim Deep Learning für Sequenzen verwendet werden, und stellt LSTM- und GRU-Netzwerke sowie neuere Entwicklungen wie Convolutional Neural Networks (CNNs), Aufmerksamkeitsmechanismen und Transformatoren vor. Sie berühren auch das Reinforcement Learning, das sequenzielle Entscheidungsprozesse optimiert, wie sie bei Handels- und Marktinteraktionen auftreten. Während Reinforcement Learning sich in Spielen als erfolgreich erwiesen hat, erfordert die Anwendung im Finanzwesen geeignete Simulatoren, eine robuste Software-Infrastruktur und erhebliche Rechenressourcen. Insgesamt betont der Referent, dass die verschiedenen diskutierten Architekturen und Modelle leistungsstarke Werkzeuge für die quantitative Finanzierung darstellen, jede mit ihren eigenen Vorteilen und Herausforderungen.

Um auf den Beitrag von David Kriegman zurückzukommen, beleuchtet er die Pipeline, die in der quantitativen Finanzierung eingesetzt wird, und wie tiefe neuronale Netze trainiert werden können, um verschiedene Teile davon zu implementieren. Er hebt die umfangreichen Aktivitäten von Two Sigma hervor, die den Handel mit Tausenden von Aktien und das Treffen von Hunderten Millionen Entscheidungen jeden Tag umfassen. Der Umgang mit derart großen Datenmengen erfordert erhebliche Rechenleistung, eine robuste Software-Infrastruktur und ein Team kreativer Personen. Kriegman geht auf Bedenken hinsichtlich der mangelnden Erklärbarkeit und Interpretierbarkeit im Zusammenhang mit tiefen neuronalen Netzen und deren Auswirkungen auf die Strategieentwicklung ein und erklärt, dass bestimmte Architekturen interpretierbare Darstellungen einführen können. Er betont auch, dass in sich schnell ändernden Handelsszenarien unterschiedliche Verteilungen erforderlich sind. Darüber hinaus umfasst Two Sigma menschliche Händler, die Systeme bei extremen Marktereignissen überwachen und implementieren.

Der Referent diskutiert, wie Deep-Learning-Ansätze mit der Hypothese eines effizienten Marktes im quantitativen Finanzwesen interagieren können. Während der Markt im Allgemeinen als effizient gilt, kann Deep Learning eine schnellere Reaktion auf Informationen ermöglichen und alternative Methoden zur Datenaufnahme bieten, wodurch möglicherweise Ineffizienzen und Investitionsmöglichkeiten identifiziert werden. Sie unterstreichen auch die Relevanz von Computer-Vision-Techniken bei der sequentiellen Modellierung im Finanzwesen, insbesondere in den Anfangsphasen der Extraktion von Merkmalen aus unstrukturierten Daten. Two Sigma sucht aktiv nach Einzelpersonen für Ingenieurs- und Modellierungsrollen, und während unterschiedliche Rollen auf unterschiedliche Teams abgestimmt sind, durchdringt die Anwendung von Deep Learning die gesamte Organisation. Hochschulabsolventen und Bewerber auf MSc-Niveau werden aufgefordert, sich über die Two Sigma-Website zu bewerben.

Während der Frage-und-Antwort-Runde geht der Redner auf verschiedene Herausforderungen ein, die mit der Anwendung von Deep Learning auf quantitative Finanzen verbunden sind. Eine große Herausforderung ist die mangelnde Stationarität in Finanzzeitreihen, da Deep-Learning-Modelle dann am besten funktionieren, wenn die Zukunft der Vergangenheit ähnelt. Um dieses Problem anzugehen, betont der Redner die Bedeutung von Simulationen und Vorhersagen zur Einführung von Domain-Transfer-Methoden, die es den Modellen ermöglichen, sich an veränderte Marktbedingungen anzupassen. Darüber hinaus weist der Redner darauf hin, dass die Fehlerquote im quantitativen Finanzwesen im Vergleich zu anderen Bereichen im Allgemeinen höher ist und selbst eine Fehlerquote von etwas mehr als 50 % einen erheblichen Handelsvorteil verschaffen kann.

Auf die Frage nach vielversprechenden Implikationen für die quantitative Finanzierung erwähnt der Redner, dass nahezu jeder Forschungsbereich im Bereich Deep Learning und neuronale Netze vielversprechende Implikationen birgt. Sie heben insbesondere das Reinforcement Learning und den Domänentransfer als Interessengebiete hervor. Darüber hinaus erkennen sie die Herausforderungen bei der Datenspeicherung im Finanzwesen an und schlagen vor, dass Datenkomprimierungstechniken bei der Bewältigung dieser Probleme hilfreich sein können.

Der Redner geht näher auf das Thema des Ingenieurteams ein, das für die Implementierung von Deep-Learning-Modellen im quantitativen Finanzwesen verantwortlich ist, und erklärt, dass das Team an verschiedenen Aufgaben arbeitet, darunter Speicherverwaltung, physische Systeme und die auf diesen Systemen aufbauenden Schichten. Sie betonen, dass sowohl Deep-Learning-Modelle als auch statistische Modellierung je nach konkretem Anwendungsfall ihre Rolle spielen. Sie stellen jedoch fest, dass ein tiefes Modell, wenn es auf eine degenerierte Form der linearen Regression reduziert wird, sein intrinsisches Interesse und seine Aussagekraft verliert.

Der Vortrag betont die Anwendung von Deep Learning im quantitativen Finanzwesen, insbesondere im Kontext von Sequenzverarbeitungs- und Entscheidungspipelines. Es beleuchtet die Herausforderungen und Chancen, die sich bei der Nutzung tiefer neuronaler Netze in diesem Bereich ergeben, einschließlich der Notwendigkeit der Interpretierbarkeit, der Bewältigung von Nichtstationarität und der Nutzung verschiedener Architekturen. In der gesamten Präsentation wird Two Sigma als ein führendes Unternehmen dargestellt, das Deep-Learning-Techniken aktiv in seine Geschäftsabläufe integriert und aktiv nach talentierten Mitarbeitern für sein Team sucht.

  • 00:00:00 Der Redner stellt die Veranstaltung vor und liefert einige Hintergrundinformationen zu Two Sigma, einem Finanzwissenschaftsunternehmen, das wissenschaftliche Methoden im Finanzbereich anwendet. Sie erklären, dass das Unternehmen in verschiedenen Geschäftsbereichen des Finanzsektors tätig ist, darunter quantitative Hedgefonds, Broker-Dealer, Privatinvestitionen, Versicherungen und Anlegerlösungen. Sie sprechen auch über die Vielfalt der Hintergründe des Publikums und betonen, dass ihr Vortrag auf allen Ebenen einige Ideen dazu liefern wird, wie Deep Learning im quantitativen Finanzwesen angewendet werden kann. Schließlich erwähnen sie, dass weltweit 1600 Menschen bei Two Sigma arbeiten, von denen 600 einen höheren Abschluss und über 200 einen Doktortitel haben.

  • 00:05:00 Der Redner stellt das Konzept des Deep Learning für Sequenzen vor und wie es sich im letzten Jahrzehnt auf verschiedene Anwendungen ausgewirkt hat, wie z. B. Stimmungsklassifizierung, Erkennung von Videoaktivitäten und maschinelle Übersetzung. Er erklärt, dass Sequenzverarbeitungsaufgaben Sequenzen als Eingabe verwenden und Sequenzen als Ausgabe erzeugen, die dieselbe oder unterschiedliche Längen haben können. Der Redner spricht auch über die Vorhersage von Börsenwerten anhand vergangener Sequenzen und betont, wie wichtig es ist, sowohl die Hoch- als auch die Tiefpunkte vorherzusagen, um mehr Geld zu verdienen.

  • 00:10:00 Der Referent erläutert die typische quantitative Investitionspipeline im Finanzwesen, die eine Abfolge von Prozessen zur Investitionsentscheidung umfasst. Dazu gehört die Alpha-Modellierung, die die Richtung der Aktienkurse anhand von Mean-Reversion-Modellen oder Momentum-Modellen vorhersagt, und die Merkmalsextraktion, die technische Merkmale wie Preis, Volumen und Geld-Brief-Spanne umfasst. Die Pipeline führt letztendlich zu Kauf- oder Verkaufsentscheidungen auf den Märkten, mit dem Ziel, kein Geld zu verlieren und Gewinne zu erzielen. Der Redner betont, wie wichtig es ist, emotionale Entscheidungen zu vermeiden und Portfolios im Finanzbereich zu diversifizieren.

  • 00:15:00 David Kriegman von Two Sigma stellt die verschiedenen Faktoren vor, die bei Entscheidungen im Aktienhandel zu berücksichtigen sind. Die erste besteht darin, grundlegende Daten zu sammeln, die direkt vom Unternehmen gemeldet oder auf der Grundlage öffentlich verfügbarer Informationen abgeleitet werden können. Darüber hinaus kann eine Stimmungsanalyse durch die Interpretation unstrukturierter Daten aus Quellen wie Nachrichten, sozialen Medien und Analystenkommentaren durchgeführt werden. Auch nicht-traditionelle Quellen, wie die Anzahl der Autos auf einem Parkplatz oder die Anzahl gestauter Containerschiffe in einem Hafen, können Aufschluss über die Entwicklung einer bestimmten Aktie geben. Nachdem mithilfe des Alpha-Modells Vorhersagen über die Aktienentwicklung getroffen wurden, besteht der nächste Schritt darin, das Portfolio zu optimieren. Dies wird oft durch groß angelegte Optimierungsprobleme gelöst und erfordert die Feststellung, wie viele Aktien bereits gehalten werden, Vertrauen in die Prognosen, wie diversifiziert die Investitionen sein sollten und welche Kosten mit der Durchführung der Geschäfte verbunden sind. Schließlich ist die Ausführung der letzte Schritt, in dem Entscheidungen über Auftragsgröße, Platzierung und Art getroffen werden und ein Modell verwendet wird, um die Auswirkungen der ergriffenen Maßnahmen zu verstehen.

  • 00:20:00 Der Redner stellt die Pipeline für Kauf- und Verkaufsentscheidungen im quantitativen Finanzwesen vor, einschließlich Merkmalsextraktion, Alpha-Modellierung und Ausführung, und betont die sequentielle Natur des Prozesses. Der Fokus verlagert sich dann auf Deep Learning, eine Art neuronales Netzwerk, das durch eine große Anzahl von Schichten gekennzeichnet ist. Der Redner erklärt die wichtigsten Veränderungen, die seit der ersten Einführung neuronaler Netze in den 1950er Jahren stattgefunden haben, wie z. B. neue Netzwerkarchitekturen, riesige Mengen an Trainingsdaten und massive parallele Berechnungen. Anschließend veranschaulicht der Redner die Grundidee eines einzelnen Perzeptrons, das Eingaben aufnimmt und eine gewichtete Summe berechnet, bevor das Ergebnis durch eine nichtlineare Funktion geleitet wird. Die herkömmliche Aktivierungsfunktion war ein Schwellenwert, wurde jedoch durch eine alternative Funktion namens „Rectified Linear Unit“ (ReLU) ersetzt, die für Werte unter einem Schwellenwert Null ausgibt und andernfalls den tatsächlichen Wert.

  • 00:25:00 Der Redner stellt das Konzept eines mehrschichtigen Perzeptrons vor, wobei jeder Kreis ein Perzeptron mit seiner eigenen Aktivierungsfunktion und seinem eigenen Gewichtungssatz darstellt. Dies kann durch ein Paar Gewichtsmatrizen dargestellt werden, was die Erstellung größerer Netzwerke ermöglicht. Als nächstes erörtert der Redner die Verwendung eines neuronalen Netzwerks für die Alpha-Modellierung, um den Preis einer Aktie auf der Grundlage ihrer bisherigen Wertentwicklung vorherzusagen. Das Netzwerk wird mithilfe einer Reihe von Trainingsdaten trainiert, die Funktionen und Preisdaten umfassen, mit dem Optimierungsziel, den Gesamtverlust zu minimieren. Dies wird durch eine Reihe von Trainingstechniken wie Backpropagation und stochastischer Gradientenabstieg erreicht.

  • 00:30:00 Der Redner erläutert, wie man ein Alpha-Modell unter Verwendung mehrerer Funktionen anstelle nur eines Signals wie Preis oder Vergangenheit erstellt. Durch die Kombination aller relevanten Funktionen könnte ein leistungsfähigeres Modell erstellt werden. Die Verwendung eines vollständig verbundenen Netzwerks bei diesem Ansatz stellt jedoch ein Problem dar, da die Anzahl der Gewichte sehr groß sein kann und nicht alle trainiert werden können. Um dieses Problem zu lösen, stellt der Redner eine weitere Klasse von Sequenzverarbeitungsnetzwerken vor, die als rekurrente neuronale Netzwerke bekannt sind. Diese Netzwerke führen einen Speicheraspekt ein und geben Informationen rückwärts weiter, bauen mit jedem Zeitpunkt einen Zustand auf und entschärfen so das Problem zu vieler Gewichtungen. Die Gewichte in diesen Netzwerken werden zwischen den einzelnen Elementen geteilt, wodurch dieses Netzwerk tief wird und eine handhabbare Lösung bereitgestellt wird.

  • 00:35:00 Der Redner erörtert die Schwierigkeiten beim Training tiefer Netzwerke und wie Gated Networks wie GRUs und LSTMs diese Probleme lösen können, indem sie die Ausbreitung von Informationen weiter in die Vergangenheit ermöglichen. Gated-Netzwerke verwenden analoge Gates, um zu steuern, wie viele Informationen durch sie fließen, und um den vorherigen Zustand durch einen potenziellen neuen Zustand zu aktualisieren. Die Komponenten von Gated-Netzwerken sind differenzierbar und daher über Backpropagation trainierbar. GRUs haben im Vergleich zu LSTMs, was für langes Kurzzeitgedächtnis steht, ein längeres Gedächtnis.

  • 00:40:00 Der Redner diskutiert verschiedene Architekturen, die beim Deep Learning für Sequenzen verwendet werden, einschließlich LSTM- und GRU-Netzwerke, sowie neuere Entwicklungen wie Faltungs-Neuronale Netzwerke, Aufmerksamkeitsmechanismen und Transformatoren. Sie führen außerdem Reinforcement Learning ein, das sequenzielle Entscheidungsprozesse optimiert, beispielsweise beim Handel und bei der Interaktion mit dem Markt. Während Reinforcement Learning in Spielen erfolgreich ist, erfordert die Anwendung im Finanzwesen einen guten Simulator, eine Software-Infrastruktur und viel Rechenleistung. Insgesamt stellen die verschiedenen diskutierten Architekturen und Modelle leistungsstarke Werkzeuge für die quantitative Finanzierung dar, jede mit ihren eigenen Vorteilen und Herausforderungen.

  • 00:45:00 David Kriegman diskutiert die im quantitativen Finanzwesen verwendete Pipeline und wie tiefe neuronale Netze trainiert werden können, um Teile davon zu implementieren. Er erwähnt, dass Two Sigma in großem Umfang operiert, mit Tausenden von Aktien handelt und Hunderte Millionen Entscheidungen pro Tag trifft. Um mit dieser Datenmenge umgehen zu können, benötigen sie viel Rechenleistung, eine gute Software-Infrastruktur und kreative Leute. Auf die Frage nach dem Mangel an Erklärbarkeit und Interpretierbarkeit, der mit Deep Nets verbunden ist, und wie sich dies auf die Strategieentwicklung auswirkt, erklärt Kriegman, dass einige Architekturen interpretierbare Darstellungen einführen können und es einige Handelsentscheidungen gibt, die schnell getroffen werden und unterschiedliche Verteilungen erfordern. Darüber hinaus verfügt Two Sigma über menschliche Händler, die Systeme bei extremen Marktereignissen überwachen und implementieren.

  • 00:50:00 Der Redner diskutierte, wie Deep-Learning-Ansätze mit der Hypothese eines effizienten Marktes im quantitativen Finanzwesen interagieren können. Während der Markt im Allgemeinen effizient ist, kann Deep Learning dazu beitragen, schneller auf Informationen zu reagieren und diese auf andere Weise zu verarbeiten, wodurch möglicherweise Ineffizienzen und Investitionsmöglichkeiten identifiziert werden. Es gibt auch Aspekte des maschinellen Sehens, die für die sequentielle Modellierung im Finanzwesen relevant sein können, insbesondere in den frühen Phasen der Extraktion von Merkmalen aus unstrukturierten Informationen. Two Sigma rekrutiert aktiv sowohl für technische als auch für modellierende Rollen, und obwohl unterschiedliche Rollen verschiedenen Teams zugeordnet sind, findet Deep Learning im gesamten Unternehmen eindeutig Anwendung. Hochschulabsolventen und Bewerber auf MSc-Niveau werden aufgefordert, sich über die Two Sigma-Website zu bewerben.

  • 00:55:00 Der Redner geht auf Fragen zu den Herausforderungen bei der Anwendung von Deep Learning auf quantitative Finanzen ein. Insbesondere die mangelnde Stationarität in Finanzzeitreihen stellt ein Problem für Deep Learning dar, das am besten funktioniert, wenn die Zukunft der Vergangenheit sehr ähnlich sieht. Um dieses Problem anzugehen, ist das Ausmaß, in dem man Domänenübertragungsmethoden simulieren, vorhersagen und einführen kann, von entscheidender Bedeutung. Darüber hinaus weist der Redner darauf hin, dass die Fehlerquote in diesem Bereich höher ist als in den meisten anderen Bereichen und dass eine Fehlerquote von mehr als 50 % einen Handelsvorteil verschaffen kann. Auf die Frage nach vielversprechenden Implikationen für die quantitative Finanzierung erwähnt der Redner, dass nahezu jeder Forschungsbereich im Bereich Deep Learning und neuronale Netze vielversprechende Implikationen hat, insbesondere Reinforcement Learning und Domain Transfer. Schließlich gibt es Datenspeicherprobleme, die angegangen werden müssen, und Datenkomprimierungstechniken sind dabei hilfreich.

  • 01:00:00 Der Redner erklärt die Vielfalt des Ingenieurteams, das für die Ausführung von Deep-Learning-Modellen für quantitative Finanzen verantwortlich ist. Das Team arbeitet an verschiedenen Aufgaben, darunter Speicher, physische Systeme und die Schichten, die über diesen physischen Systemen liegen. Wenn es um Deep-Learning-Modelle und statistische Modellierung geht, spielen außerdem beide Rollen eine Rolle, abhängig von der Verwendung, und wenn ein Deep-Modell in eine degenerierte Form einer linearen Regression umgewandelt wird, ist es nicht mehr interessant.
 

Two Sigma präsentiert: Modelle für maschinelles Lernen von Finanzdaten


Two Sigma präsentiert: Modelle für maschinelles Lernen von Finanzdaten

Justin Ceriano von Two Sigma Securities hält einen umfassenden Vortrag über die Integration maschineller Lernmodelle im Finanzbereich. Er hebt zunächst das zunehmende Interesse von Finanzunternehmen hervor, maschinelles Lernen zu nutzen, um ihre Vorhersagefähigkeiten und Entscheidungsprozesse zu verbessern. Konkret können Algorithmen des maschinellen Lernens genutzt werden, um zukünftige Preise von Finanzinstrumenten vorherzusagen und optimale Handelsstrategien zu bestimmen.

Ceriano führt das Konzept des verstärkenden Lernens ein, das zu einer Klasse von Methoden gehört, mit denen Entscheidungsrichtlinien direkt aus verfügbaren Daten gelernt werden können, um eine geeignete Zielfunktion zu maximieren. Reinforcement Learning erweist sich im Finanzwesen als besonders wertvoll, wo das Ziel darin besteht, Ergebnisse auf der Grundlage historischer Daten zu optimieren.

Einer der grundlegenden Aspekte, die diskutiert werden, ist die Anwendung von Modellen des maschinellen Lernens zur Analyse von Limit-Orderbüchern in elektronischen Märkten. In diesem System erteilen Käufer und Verkäufer Aufträge, in denen sie die Preise angeben, zu denen sie bereit sind, einen bestimmten Vermögenswert zu kaufen oder zu verkaufen. Diese Aufträge werden dann auf der Grundlage des besten verfügbaren Brief- oder Geldpreises abgeglichen. Ceriano betont, dass die Orderbuchdaten, die das sichtbare Angebot und die Nachfrage für eine Aktie darstellen, eine hochdimensionale Sequenz bilden, die effektiv genutzt werden kann, um zukünftige Preisänderungen mithilfe von Modellen des maschinellen Lernens vorherzusagen.

Darüber hinaus betont Ceriano die Bedeutung der Berücksichtigung von Spreads ungleich Null in Handelsstrategien. Diese Spreads können sich auf die Rentabilität von Preisprognosen auswirken und erfordern daher eine sorgfältige Bewertung und Anpassung.

Um die praktische Umsetzung von Modellen des maschinellen Lernens zu demonstrieren, erklärt Ceriano den Aufbau eines wiederkehrenden neuronalen Netzwerks, das darauf ausgelegt ist, Preisänderungen anhand hochfrequenter Finanzdaten vorherzusagen. Das Modell wird darauf trainiert, vorherzusagen, ob die nächste Preisänderung positiv oder negativ sein wird, und seine Leistung wird mit einem linearen wiederkehrenden Modell verglichen. Der verwendete Datensatz besteht aus dreijährigen Ereignis-für-Ereignis-Hochfrequenzdaten für etwa 1.000 Bestände. Das Ziel besteht darin, zu beurteilen, ob nichtlineare Modelle des maschinellen Lernens, wie z. B. wiederkehrende Netzwerke, lineare statistische Modelle bei der Erfassung nichtlinearer Beziehungen innerhalb der Daten übertreffen. Die Optimierung der Vorhersagen der Modelle wird durch den Backpropagation-Algorithmus erreicht, wodurch der Vorhersagefehler minimiert wird. Um die Rechenkosten zu senken, wird der verkürzte Backpropagation-Through-Time-Algorithmus verwendet.

In der Präsentation werden Herausforderungen im Zusammenhang mit der Optimierung wiederkehrender Netzwerke angesprochen, insbesondere das bekannte Problem des verschwindenden Gradienten. Das Problem des verschwindenden Gradienten bezieht sich auf das Problem, dass Gradienten extrem klein werden, wenn sie sich durch die unteren Schichten des Netzwerks ausbreiten. Folglich kann dies die Trainingsgeschwindigkeit beeinträchtigen und es dem Netzwerk erschweren, Informationen aus entfernten Teilen der Sequenz zu behalten. Ceriano stellt das Long Short-Term Memory (LSTM)-Netzwerk vor, eine der beliebtesten Arten wiederkehrender Netzwerke, das speziell zur Lösung dieses Problems entwickelt wurde, indem es den Speicherzustand effizient aktualisiert und es dem Modell so ermöglicht, relevante Informationen aus der Ferne zu speichern die Vergangenheit.

Anschließend wird in der Präsentation das Training und die Bewertung von Modellen für maschinelles Lernen unter Verwendung von Hochfrequenz-Auftragsbuchdaten erörtert. Die Autoren vergleichen die Genauigkeit eines linearen Modells mit der eines wiederkehrenden LSTM-Netzwerks, und die Ergebnisse zeigen deutlich die überlegene Leistung des Deep-Learning-Modells, wenn es über einen dreimonatigen Out-of-Sample-Zeitraum an etwa 500 Aktien getestet wird. Die Diskussion befasst sich auch mit der universellen Natur der Beziehung zwischen Auftragsbuchdaten und Preisbewegungen, was auf die Existenz eines universellen Preisbildungsmodells schließen lässt, das auf mehrere Aktien anwendbar ist. Diese Erkenntnis hat erhebliche praktische Auswirkungen, wie z. B. die Reduzierung der Rechenkosten und die Möglichkeit, ein Modell für einen Bestand mithilfe von Daten aus einem anderen Bestand zu verbessern.

Das Experiment zielt darauf ab, ein universelles Modell zu trainieren, indem Daten aus zahlreichen Beständen gebündelt und seine Genauigkeit im Vergleich zu aktienspezifischen Modellen bewertet werden. Die Ergebnisse belegen durchweg die Überlegenheit des Universalmodells und weisen auf eine gemeinsame Universalität der Orderbuchdynamik verschiedener Aktien hin. Dies reduziert nicht nur die Überanpassung, sondern erhöht auch die Genauigkeit des Modells. Darüber hinaus weist das universelle Modell Stabilität für über ein Jahr und Skalierbarkeit mithilfe von Hochleistungsrechnen unter Verwendung von 25 GPUs mit asynchronem stochastischem Gradientenabstieg auf.

In der Präsentation wird auch die Anwendung von Reinforcement Learning zur Optimierung von Auftragserteilungsstrategien für eine optimale Ausführung untersucht. Der Schwerpunkt liegt auf der Entwicklung von Richtlinien für Marktaufträge oder begrenzte Aufträge einer Aktie mit dem Ziel, die erwarteten Erträge und Kosteneinsparungen innerhalb diskreter Zeitintervalle zu maximieren. Durch die Nutzung historischer Orderbuchdaten wird das Reinforcement-Learning-Modell darauf trainiert, ausgeführte Preise für kleine Orders zu simulieren. Das Modell bestimmt anhand der Daten des Limit-Orderbuchs als Eingabe, ob sofort eine Marktorder übermittelt oder auf den Rückgang des besten Briefkurses gewartet werden soll. Die Leistung des Modells wird anhand der Daten eines Jahres bewertet und dann an einem separaten Datensatz für sechs Monate getestet.

Präsentiert werden Simulationsergebnisse für ein Universum von 100 Aktien unter Berücksichtigung von Zeithorizonten von 10 und 60 Sekunden sowohl für eine reine Marktorder-Lernstrategie als auch für eine einfache Limit-Order-Strategie. Die Ergebnisse deuten durchweg auf positive Kosteneinsparungen hin, die durch das Reinforcement-Learning-Modell bei allen 50 Aktien erzielt wurden, wenn auch mit einigen Schwankungen. Darüber hinaus nehmen die Kosteneinsparungen tendenziell mit zunehmendem Zeithorizont zu. Die Präsentation stellt das Konzept vor, anhand historischer Orderbuchdaten zu simulieren, ob eine übermittelte Limit-Order innerhalb eines bestimmten Zeitintervalls ausgeführt wird. Das Reinforcement-Learning-Modell ist darauf trainiert, dynamisch den optimalen Zeitpunkt auszuwählen, um die erwarteten Kosteneinsparungen zu maximieren. Während die Kosteneinsparungen je nach Aktie variieren, führt die Reinforcement-Learning-Strategie durchweg zu positiven Ergebnissen, wobei einige Aktien deutlich höhere Kosteneinsparungen aufweisen als andere.

Der Vortrag schließt mit der Auseinandersetzung mit der Notwendigkeit, fortschrittliche Optimierungsmethoden und Deep-Learning-Architekturen zu entwickeln, die speziell auf Finanzdaten zugeschnitten sind. Es betont die anhaltenden Herausforderungen bei der Zusammenführung von Reinforcement Learning mit genauen Simulationen für größere Auftragsgrößen, um die Anwendung von maschinellem Lernen im Finanzwesen weiter zu verbessern. Um die besprochenen Konzepte effektiv zu verstehen, empfiehlt Ceriano, praktische Erfahrungen durch die Implementierung von Techniken des maschinellen Lernens in großen Datensätzen zu sammeln. Er betont, wie wichtig es ist, die zugrunde liegende mathematische Theorie zu verstehen und über Kenntnisse in Deep-Learning-Bibliotheken wie TensorFlow und PyTorch zu verfügen. Darüber hinaus werden Fähigkeiten im Hochleistungsrechnen zur Parallelisierung des Modelltrainings hervorgehoben.

Darüber hinaus besprechen die Referenten die Einstellungsrichtlinien und Fernarbeitsmöglichkeiten von Two Sigma. Obwohl es keine Vollzeit-Fernarbeitsrichtlinie gibt, stellt Two Sigma Mitarbeiter aus verschiedenen Ländern weltweit ein und betreibt ein Online-Team namens Alpha Studio für Fernarbeit. Sie betonen die Bedeutung des Erwerbs von Kenntnissen in den Bereichen quantitative Finanzen, Wahrscheinlichkeitsrechnung und Statistik durch mehrere Kurse für diejenigen, die sich für maschinelles Lernen im Finanzbereich interessieren. In der Präsentation wird auch die Verwendung von Deep-Learning-Bibliotheken wie TensorFlow und PyTorch in der Codebasis von Two Sigma erwähnt.

Der Einstellungsprozess bei Two Sigma wird besprochen, wobei der Schwerpunkt darauf liegt, dass die Einstellung das ganze Jahr über, insbesondere im Sommer, erfolgt. Für Herbst- und Frühjahrseinstellungen gelten Ausnahmen. Das Unternehmen empfiehlt interessierten Personen, so früh wie möglich anzufangen, auch wenn dies bedeutet, dass sie bereits im Dezember beginnen müssen. Die Referenten weisen darauf hin, dass beeindruckende Projekte darin bestehen, Muster und Trends in realen Daten zu identifizieren und Ansätze des maschinellen Lernens anzuwenden, um reale Probleme zu lösen. Die Eigenverantwortung für das Projekt und die Hervorhebung der eigenen Beiträge innerhalb des Projekts werden als wertvolle Eigenschaften hervorgehoben, die von Personalvermittlern angestrebt werden. Auch das Fundamental-Equity-Research-Team von Two Sigma, das eng mit Ingenieuren und Datenwissenschaftlern zusammenarbeitet, wird kurz erwähnt.

Der Unterschied zwischen einem Datenwissenschaftler und einem Quant-Forscher bei Two Sigma wird erläutert. Während es bei beiden Positionen um Modellierung und Handel geht, konzentriert sich Data Science hauptsächlich auf den datenwissenschaftlichen Aspekt und das Feature Engineering, während Quant-Forscher den gesamten Handelsprozess von Anfang bis Ende betrachten. Die Referenten gehen auf die Bürokultur und Meetings bei Two Sigma ein, beschreiben Meetings als überwiegend informell und bieten Whiteboards für gemeinsame Diskussionen an. Gelegentlich sind für bestimmte Besprechungen vorbereitete Präsentationen erforderlich.

Abschließend werden die Vorteile der Verwendung eines universellen Modells gegenüber aktienspezifischen Modellen hervorgehoben. Als Hauptvorteil wird die Fähigkeit des universellen Modells hervorgehoben, Lerntransfers zu nutzen und Überanpassungsprobleme zu mildern. Die Präsentation schließt mit der Erwähnung, dass die aufgezeichnete Sitzung auf dem YouTube-Kanal von Two Sigma verfügbar gemacht wird, und hebt die globalen Einstellungspraktiken des Unternehmens hervor, wobei die Mehrheit der Einstellungen in den Vereinigten Staaten erfolgt.

  • 00:00:00 Justin Ceriano von Two Sigma Securities stellt das Konzept maschineller Lernmodelle im Finanzwesen vor. Er erklärt, wie Finanzunternehmen daran interessiert sind, maschinelles Lernen zu nutzen, um Vorhersagen und Entscheidungen zu treffen, beispielsweise um den zukünftigen Preis eines Finanzinstruments vorherzusagen und eine optimale Handelsstrategie zu bestimmen. Ceriano weist darauf hin, dass Reinforcement Learning eine Klasse von Methoden ist, die Entscheidungsrichtlinien direkt aus den Daten lernen können, mit dem Ziel, eine geeignete Zielfunktion zu maximieren. Abschließend erörtert er die Herausforderungen einer Überanpassung bei unzureichenden Daten, die Vorteile von Deep-Learning-Modellen und die Bedeutung von Hochleistungsrechnen für das Training großer Modelle auf hochfrequenten Finanzdatensätzen.

  • 00:05:00 Das Konzept der Limit-Orderbücher in elektronischen Märkten wird eingeführt, bei dem Käufer und Verkäufer Aufträge zu Preisen erteilen, zu denen sie bereit sind zu kaufen oder zu verkaufen, und die entsprechend dem besten Brief- oder Geldkurs abgeglichen werden. Das sichtbare Angebot und die Nachfrage für eine Aktie werden durch Orderbuchdaten dargestellt und sind eine hochdimensionale Sequenz, die zur Vorhersage zukünftiger Preisänderungen mithilfe von Modellen des maschinellen Lernens verwendet wird. Es ist auch wichtig, bei Handelsstrategien Spreads ungleich Null zu berücksichtigen, da diese Preisvorhersagen möglicherweise weniger profitabel machen.

  • 00:10:00 Ein rekurrentes neuronales Netzwerk wird implementiert, um Preisänderungen in hochfrequenten Finanzdaten vorherzusagen. Das Modell wird vorhersagen, ob die nächste Preisänderung positiv oder negativ ist, und die Ergebnisse werden mit einem linearen wiederkehrenden Modell verglichen. Der Datensatz besteht aus dreijährigen Ereignis-für-Ereignis-Hochfrequenzdaten für etwa 1.000 Bestände. Die Leistung des Deep-Learning-Modells wird bewertet, um festzustellen, ob nichtlineare Modelle für maschinelles Lernen, wie z. B. wiederkehrende Netzwerke, lineare statistische Modelle beim Lernen nichtlinearer Beziehungen in den Daten übertreffen können. Der Backpropagation-Algorithmus wird zur Optimierung der Zielfunktion verwendet, um den Fehler der Vorhersagen zu minimieren. Die verkürzte Rückausbreitung durch den Zeitalgorithmus wird verwendet, um den Rechenaufwand zu reduzieren.

  • 00:15:00 In dem Video wird erläutert, wie wiederkehrende Netzwerke optimiert werden können, was im Geiste der Optimierung eines mehrschichtigen Feed-Forward-Netzwerks ähnelt. Das Problem des verschwindenden Gradienten ist jedoch eine bekannte Herausforderung, da die Größe des Gradienten im Vergleich zu den unteren Schichten im Netzwerk klein ist. Dies kann das Training verlangsamen, es schwierig machen, die Netzwerke so zu trainieren, dass sie sich Daten aus weit zurückliegenden Daten merken, und zu einem stochastischen Gradientenabfall mit langsamer Konvergenz führen. Das Transkript stellt außerdem das LSTM-Netzwerk als eine der beliebtesten Arten wiederkehrender Netzwerke vor, das darauf ausgelegt ist, den Speicherzustand effizient zu aktualisieren, mit dem Ziel, dem Modell zu helfen, sich Daten aus der Sequenz zu merken, die weit in der Vergangenheit liegen.

  • 00:20:00 Die Autoren beschreiben, wie sie eine Reihe von Modellen für maschinelles Lernen auf Hochfrequenz-Auftragsbuchdaten trainierten und ihre Leistung anhand eines Testdatensatzes bewerteten. Die Autoren verglichen die Genauigkeit des linearen Modells mit dem wiederkehrenden LSTM-Netzwerk und stellten fest, dass das Deep-Learning-Modell das lineare Modell in einem Testdatensatz von etwa 500 Aktien über einen dreimonatigen Testzeitraum außerhalb der Stichprobe deutlich übertrifft. Sie untersuchen die Frage, ob der Zusammenhang zwischen den Orderbuchdaten und Preisbewegungen für alle Aktien universell ist oder ob einzelne Aktien ein eigenes Modell benötigen, und finden starke Belege für ein universelles Preisbildungsmodell, das den Orderfluss auf Preisänderungen abbildet. Sie diskutieren auch die praktischen Auswirkungen dieser Erkenntnis, einschließlich geringerer Rechenkosten und der Möglichkeit, das Modell für einen Bestand mithilfe von Daten aus einem anderen Bestand zu verbessern.

  • 00:25:00 Das Experiment zielt darauf ab, ein universelles Modell zu trainieren, indem Daten aus Hunderten von Beständen gebündelt und seine Genauigkeit mit der von aktienspezifischen Modellen verglichen werden. Das Ergebnis zeigt, dass das universelle Modell die aktienspezifischen Modelle durchweg übertrifft, was auf eine gemeinsame Universalität in der Orderbuchdynamik verschiedener Aktien hinweist. Dies ermöglicht die Reduzierung der Überanpassung und die Verbesserung der Modellgenauigkeit. Darüber hinaus ist das universelle Modell in der Lage, auf neue Bestände zu verallgemeinern, wobei es mithilfe von Hochleistungsrechnen unter Verwendung von 25 GPUs mit asynchronem stochastischem Gradientenabstieg Modellstabilität über ein Jahr und Modellskalierbarkeit demonstriert. Das zweite in diesem Abschnitt vorgestellte Beispiel ist die optimale Ausführung, bei der Reinforcement Learning zur Entwicklung von Strategien zur Auftragsübermittlung eingesetzt wird. Die optimale Richtlinie für einen Markov-Entscheidungsprozess ist jedoch aufgrund der unbekannten Übergangswahrscheinlichkeit eine Herausforderung.

  • 00:30:00 Das Video erläutert, wie Reinforcement Learning verwendet werden kann, um optimale Richtlinien für ein einfaches Beispiel für die Auftragsausführung zu erlernen. Das Reinforcement-Learning-Modell ist darauf trainiert, den ausgeführten Preis für eine kleine Order anhand historischer Orderbuchdaten genau zu simulieren. Der Fokus liegt auf der optimalen Ausführung einer Marktorder oder einer limitierten Order über eine Aktie mit dem Ziel, den erwarteten Gewinn und die Kosteneinsparungen für jeden diskreten Zeitpunkt bis zum Zeithorizont zu maximieren. Das Reinforcement-Learning-Modell wählt aus, ob die Marktorder übermittelt oder darauf gewartet werden soll, dass der beste Briefkurs sinkt. Die Eingabe erfolgt aus den Daten des Limit-Orderbuchs, und das Modell wird anhand der Daten eines Jahres bewertet und anschließend anhand der Daten von sechs Monaten getestet.

  • 00:35:00 Das Video präsentiert Simulationsergebnisse aus dem gesamten Universum von 100 Aktien mit Zeithorizonten von 10 und 60 Sekunden für die Reinforcement-Learning-Strategie „Market Order“ und die Strategie „Einfache Limit-Order“. Die Ergebnisse zeigen, dass das Reinforcement-Learning-Modell bei allen 50 Aktien durchgehend positive Kosteneinsparungen ermöglicht, wenn auch mit erheblichen Schwankungen. Bei längerem Zeithorizont nehmen die Kosteneinsparungen im Allgemeinen zu. Das Video stellt außerdem die Verwendung der historischen Orderbuchdaten vor, um zu simulieren, ob die übermittelte Limitorder für eine Aktie in dem Zeitintervall ausgeführt wird oder nicht, und um das Reinforcement-Learning-Modell zu trainieren, um den Zeitpunkt adaptiv auszuwählen, um die erwarteten Kosteneinsparungen zu maximieren. Die Ergebnisse zeigen, dass die Reinforcement-Learning-Strategie durchweg zu positiven Kosteneinsparungen führt, obwohl die Kosteneinsparungen bei einigen Beständen variieren, während sie bei anderen relativ groß sind.

  • 00:40:00 Das Video unterstreicht die Notwendigkeit, bessere Optimierungsmethoden und Deep-Learning-Architekturen speziell für Finanzdaten zu entwickeln. Es gibt noch offene Herausforderungen, die noch angegangen werden müssen, beispielsweise die Kombination von Reinforcement Learning mit genauen Simulationen für größere Auftragsgrößen, um maschinelles Lernen auf Finanzdaten anzuwenden. Justin empfiehlt, dass der beste Weg, maschinelles Lernen zu erlernen, darin besteht, es aus erster Hand in großen Datensätzen zu implementieren und die mathematische Theorie dahinter zu verstehen. Um das Training von Modellen zu parallelisieren und maschinelles Lernen auf Finanzdaten anzuwenden, sind Erfahrungen mit Deep-Learning-Bibliotheken wie PiTorch oder TensorFlow und Hochleistungsrechnen unerlässlich. Schließlich wird die Aufzeichnung der Sitzung auf ihrem YouTube-Kanal verfügbar sein, und Two Sigma stellt weltweit ein, wobei die meisten ihrer Mitarbeiter in den USA ansässig sind.

  • 00:45:00 Vertreter von Two Sigma sprechen über ihre Richtlinien zu Einstellung und Fernarbeit. Obwohl es keine Vollzeit-Fernarbeitsrichtlinie gibt, stellen sie Mitarbeiter aus verschiedenen Ländern weltweit ein und verfügen über ein Online-Team namens Alpha Studio für Fernarbeit. Sie diskutieren auch, wie wichtig es für diejenigen ist, die sich für maschinelles Lernen in diesem Bereich interessieren, mehrere Kurse in quantitativer Finanzwissenschaft, Wahrscheinlichkeitsrechnung und Statistik zu belegen. Abschließend verraten die Referenten, dass ihr Code die Deep-Learning-Bibliotheken TensorFlow und PyTorch enthält.

  • 00:50:00 Die Referenten besprechen den Einstellungsprozess bei Two Sigma und die verschiedenen Jahreszeiten, zu denen sie einstellen, wobei der Schwerpunkt auf dem Sommer liegt, aber auch Ausnahmen für Herbst und Frühling gemacht werden. Sie erwähnen auch, dass sie auf fortlaufender Basis einstellen und die Leute ermutigen, so bald wie möglich anzufangen, selbst wenn das bedeutet, dass sie im Dezember beginnen müssen. Im Hinblick auf Projekte, die für Personalvermittler interessant wären, schlagen sie vor, Muster und Trends in realen Daten zu finden und maschinelle Lernansätze auf reale Probleme anzuwenden, wobei der Schwerpunkt auf der Eigenverantwortung für das Projekt liegt und hervorgehoben wird, was die Person an dem Projekt besaß, an dem sie gearbeitet hat An. Die Redner erwähnen auch das Fundamental-Equity-Research-Team von Two Sigma, das eng mit den Ingenieuren, Datenwissenschaftlern und anderen Geschäftsbereichen des Unternehmens zusammenarbeitet. Abschließend geht es um die Frage nach der Nutzung von Reinforcement Learning zur Optimierung automatisierter Handelsausführungen.

  • 00:55:00 Der Redner diskutiert den Unterschied zwischen einem Datenwissenschaftler und einem Quant-Forscher bei Two Sigma. Während es bei beiden Positionen um Modellierung und Handel geht, konzentriert sich die Datenwissenschaft auf den datenwissenschaftlichen Aspekt und das Feature-Engineering, während die quantitative Forschung das Gesamtbild des Handels von Anfang bis Ende betrachtet. Der Redner beantwortet auch eine Frage zur Bürokultur und zu Besprechungen bei Two Sigma und erklärt, dass es zwar gelegentliche Besprechungen gibt, die vorbereitete Präsentationen erfordern, die Besprechungen jedoch eher locker stattfinden und Whiteboards für Diskussionen zur Verfügung stehen. Abschließend erörtert der Redner die Vorteile eines universellen Modells gegenüber einem aktienspezifischen Modell und nennt Transferlernen und die Möglichkeit von Überanpassungsproblemen als Gründe dafür, warum ein einzelnes universelles Modell, das auf einem kombinierten Datensatz trainiert wird, spezialisierte Modelle übertreffen kann.
 

Schlüssel zum Erfolg im algorithmischen Handel | Podcast | Dr. EP Chan


Schlüssel zum Erfolg im algorithmischen Handel | Podcast | Dr. EP Chan

Quantitativer Handel oder Handel im Allgemeinen gilt als einer der schwierigsten Berufe, in die man einsteigen und erfolgreich sein kann. Dr. DE Shaw, ein Pionier des quantitativen Handels und Gründer eines milliardenschweren Hedgefonds in New York, hat dies anerkannt Das Feld ist von Jahr zu Jahr anspruchsvoller geworden. Diese Meinung wird von vielen erfahrenen Händlern der Branche geteilt.

Trotz seiner Schwierigkeit ist der quantitative Handel für diejenigen, die sich dafür begeistern, immer noch eine Beschäftigung wert. So wie man ein erfolgreicher Schauspieler, Sänger, Model oder Romanautor werden will, erfordert der Erfolg im algorithmischen Handel Hingabe und Ausdauer. Obwohl nicht jeder das Niveau renommierter Händler wie DE Shaw oder Renaissance Technologies erreichen kann, sollten sich angehende Händler nicht entmutigen lassen. Es ist wichtig, auf Misserfolge vorbereitet zu sein, da der Erfolg in diesem Bereich ein Ausreißer ist.

Für Personen, die noch nicht in der Finanzbranche tätig sind, ist es ratsam, ihren Job nicht sofort nach ihrem Abschluss und dem Beginn ihrer ersten Handelsstrategie zu kündigen. Es wird empfohlen, mindestens zwei profitable Handelsstrategien über einen Zeitraum von zwei Jahren live laufen zu lassen, bevor man über den Vollzeithandel nachdenkt. Diese Beratung basiert auf persönlichen Erfahrungen und den Erfahrungen anderer erfolgreicher Trader.

Händler machen oft den Fehler, zu optimistisch in Bezug auf die bisherige Leistung einer Strategie zu sein, was dazu führt, dass sie einen zu hohen Hebel einsetzen. Es ist wichtig, eine übermäßige Hebelwirkung zu vermeiden, da diese schnell das Eigenkapital eines Kontos vernichten kann. Darüber hinaus entwickelt sich die Strategieleistung normalerweise nicht in der gleichen Weise weiter. Die Allokation von Kapital ausschließlich auf der Grundlage vergangener Leistungen ist ein häufiger Fehler. Stattdessen ist eine Risikoparitätsallokation, bei der das Kapital umgekehrt proportional zur Volatilität einer Strategie zugewiesen wird, im Allgemeinen ein besserer Ansatz.

Ein weiterer häufiger Fehler besteht darin, in guten Zeiten keine Gewinne in Datenausrüstung und Personal zu investieren. Es ist wichtig, einen Teil des Gewinns in die Verbesserung der Dateninfrastruktur und die Einstellung qualifizierten Personals zu reinvestieren, da dies dazu beitragen kann, künftige Verluste zu verhindern.

Positiv zu vermerken ist, dass es empfehlenswert ist, mit einfachen Strategien zu beginnen, die eine intuitive Begründung haben. Es ist ratsam, bestehende Strategien zu verstehen und zu verbessern, bevor man sich mit komplexeren Ansätzen wie rekurrenten neuronalen Netzen oder Deep Learning beschäftigt. Indem Händler mit einfachen Strategien beginnen, können sie die Gründe für Erfolge oder Misserfolge besser verstehen und diese auf bestimmte Faktoren zurückführen.

Zusammenfassend lässt sich sagen, dass quantitativer Handel ein herausfordernder, aber potenziell lohnender Beruf ist. Es erfordert Ausdauer, kontinuierliches Lernen und sorgfältige Entscheidungsfindung. Es gibt zwar Fallstricke, die es zu vermeiden gilt, aber es gibt auch wertvolle Lektionen, die man von erfahrenen Händlern lernen kann. Indem angehende Trader mit einfachen Strategien beginnen, Risiken managen und in Infrastruktur und Personal investieren, können sie ihre Erfolgschancen im Bereich des quantitativen Handels erhöhen.

Keys to Success in Algorithmic Trading | Podcast | Dr. E.P. Chan
Keys to Success in Algorithmic Trading | Podcast | Dr. E.P. Chan
  • 2020.07.02
  • www.youtube.com
Dr. Ernest P. Chan is the Managing Member of QTS Capital Management, LLC. He has worked for various investment banks (Morgan Stanley, Credit Suisse, Maple) a...
 

„Grundlegende statistische Arbitrage: Die Mathematik hinter dem Paarhandel verstehen“ von Max Margenot


„Grundlegende statistische Arbitrage: Die Mathematik hinter dem Paarhandel verstehen“ von Max Margenot

Willkommen beim Quanto Peon Algorithmic Trading Meetup, einer Veranstaltung, die sich der Erkundung der Welt des quantitativen Finanzwesens widmet. Ich bin Max Margit, Datenwissenschaftler bei Quanto Peon, und heute werde ich mich mit dem faszinierenden Thema der statistischen Arbitrage und den damit verbundenen grundlegenden statistischen Konzepten befassen.

Bevor wir uns mit den theoretischen Aspekten befassen, möchte ich Ihnen eine kurze Einführung in Quanto Peon geben. Unser Hauptziel ist es, quantitative Finanzen für jedermann zugänglich zu machen, indem wir kostenlose Open-Source-Tools anbieten, die es Einzelpersonen ermöglichen, ihre eigenen algorithmischen Handelsstrategien zu erforschen und zu entwickeln. Beim algorithmischen Handel werden Anweisungen zur automatischen Ausführung von Geschäften auf den Finanzmärkten verwendet. Die Bandbreite reicht von einfachen Regeln wie dem täglichen Kauf von Apple-Aktien um 10:00 Uhr bis hin zu anspruchsvolleren quantitativen Analysen mithilfe statistischer Modelle.

Bei der statistischen Arbitrage, dem Schwerpunkt der heutigen Diskussion, geht es darum, Marktineffizienzen mithilfe statistischer Analysen auszunutzen, anstatt sich auf physische Ungleichgewichte zu verlassen. Dieser Ansatz zielt darauf ab, statistische Ungleichgewichte bei den Vermögenspreisen zu identifizieren und auszunutzen. Um dieses Konzept besser zu verstehen, ist es wichtig, einige grundlegende statistische Konzepte zu verstehen.

Eines der Schlüsselkonzepte, die wir untersuchen werden, ist Stationarität, insbesondere im Kontext von Zeitreihendaten. Stationarität bezieht sich auf eine Reihe von Datenpunkten, bei denen jede Stichprobe aus derselben Wahrscheinlichkeitsverteilung mit über die Zeit konsistenten Parametern gezogen wird. Vereinfacht ausgedrückt bedeutet dies, dass der Mittelwert und die Standardabweichung der Daten über die Zeit konstant bleiben. Dies ist wichtig, da viele im Finanzwesen verwendete statistische Modelle von Stationarität ausgehen. Durch die Sicherstellung der Stationarität können wir den Ergebnissen dieser Modelle vertrauen.

Um das Konzept der Stationarität zu veranschaulichen, generieren wir einige Datenpunkte. Ich verwende eine Grundfunktion namens „generate_data_point“, um eine Reihe von Stichproben aus einer Standardnormalverteilung zu erstellen. Diese Proben stellen eine stationäre Zeitreihe dar, die oft als weißes Rauschen bezeichnet wird. In diesem Fall ist der Mittelwert Null und die Standardabweichung eins. Wenn wir diese Daten grafisch darstellen, beobachten wir ein zufälliges Muster, das weißem Rauschen ähnelt.

Allerdings weisen nicht alle Zeitreihendaten Stationarität auf. Wenn wir im Mittel einen Trend einführen, wird die Zeitreihe instationär. Im Finanzwesen kann Nichtstationarität viel komplexer sein als dieses einfache Beispiel. Beschreibende Statistiken wie der Mittelwert verlieren für instationäre Daten ihre Bedeutung, da sie nicht die gesamte Zeitreihe genau darstellen.

Wie bestimmen wir nun, ob eine Zeitreihe stationär ist oder nicht? Hier kommen Hypothesentests ins Spiel, beispielsweise der erweiterte Dickey-Fuller-Test, der üblicherweise in der Stationaritätsanalyse verwendet wird. Dieser Test hilft uns, die Wahrscheinlichkeit abzuschätzen, dass eine bestimmte Zeitreihe instationär ist.

Wenden wir den erweiterten Dickey-Fuller-Test auf unsere generierten Zeitreihendaten an. Der Test liefert einen p-Wert, der die Wahrscheinlichkeit angibt, die Nullhypothese, dass die Zeitreihe instationär ist, zurückzuweisen. In unserem ersten Beispiel, in dem die Daten bewusst als stationäre Daten generiert wurden, liegt der p-Wert nahe bei Null. Dies ermöglicht es uns, die Nullhypothese abzulehnen und zu dem Schluss zu kommen, dass die Zeitreihe wahrscheinlich stationär ist. Im zweiten Beispiel mit dem eingeführten Trend hingegen überschreitet der p-Wert den Schwellenwert (0,01) und wir können die Nullhypothese nicht ablehnen, was darauf hinweist, dass die Zeitreihe wahrscheinlich instationär ist.

Es ist jedoch wichtig zu beachten, dass Hypothesentests Einschränkungen unterliegen. Insbesondere beim Umgang mit subtilen oder komplexen Zusammenhängen innerhalb von Finanzdaten kann es zu Fehlalarmen kommen. Daher ist es wichtig, Vorsicht walten zu lassen und sich zur Bestimmung der Stationarität nicht ausschließlich auf Hypothesentests zu verlassen.

Lassen Sie uns nun unseren Fokus auf den Paarhandel verlagern. Wenn ich mit Paaren handeln möchte, muss ich mehrere Paare berücksichtigen und auf jedes davon unabhängige Wetten platzieren. Anstatt mich auf ein einzelnes Paar zu verlassen, kann ich durch die Diversifizierung meines Portfolios durch den Handel mit 100, 200 oder sogar 300 Paaren jeden Vorteil nutzen, den ich in jedem Paar habe, und so meine Gesamterfolgschancen erhöhen.

Für den Handel mit Paaren ist ein robuster Rahmen erforderlich, um die Geschäfte effektiv verwalten und überwachen zu können. Dabei wird die Beziehung zwischen den Paaren kontinuierlich aktualisiert und die Positionen entsprechend angepasst. Da sich die Beta-Werte, die die Beziehung zwischen den Paaren darstellen, im Laufe der Zeit ändern können, benötige ich ein System, das sich dynamisch an diese Änderungen anpasst.

Darüber hinaus ist es von entscheidender Bedeutung, für jeden Trade eine klare Ausstiegsstrategie zu haben. Ich muss bestimmen, wann eine Position geschlossen werden muss, wenn das Paar nicht mehr das erwartete Verhalten zeigt oder wenn die Beziehung zwischen den Paaren zusammenbricht. Dies erfordert eine ständige Überwachung des Spreads und vordefinierte Kriterien für den Ausstieg aus einem Handel.

Darüber hinaus spielt das Risikomanagement beim Paarhandel eine wichtige Rolle. Es ist wichtig, die Positionsgrößen für jedes Paar sorgfältig zu berechnen, basierend auf Faktoren wie Volatilität, Korrelation und Gesamtportfolioengagement. Durch die Diversifizierung meiner Geschäfte und ein effektives Risikomanagement kann ich die Auswirkungen ungünstiger Marktbedingungen minimieren und potenzielle Gewinne maximieren.

Um Paarhandelsstrategien effektiv umzusetzen, verlassen sich Händler häufig auf fortschrittliche quantitative Techniken und entwickeln ausgefeilte Algorithmen. Diese Algorithmen scannen den Markt automatisch nach potenziellen Paaren, bewerten deren Kointegration und statistische Eigenschaften und generieren Handelssignale auf der Grundlage vordefinierter Kriterien.

Zusammenfassend lässt sich sagen, dass das Verständnis der Stationarität und die Durchführung geeigneter Tests bei der Erstellung statistischer Modelle für den algorithmischen Handel von entscheidender Bedeutung sind. Durch das Verständnis des Konzepts der Stationarität und die Verwendung von Tests wie dem erweiterten Dickey-Fuller-Test können Händler die Wahrscheinlichkeit der Nichtstationarität in Zeitreihendaten einschätzen. Der Paarhandel als statistische Arbitrage-Strategie ermöglicht es Händlern, vorübergehende Abweichungen von der historischen Beziehung zwischen zwei korrelierten Wertpapieren auszunutzen. Für eine erfolgreiche Umsetzung sind jedoch robuste Rahmenbedingungen, kontinuierliche Überwachung, Risikomanagement und der Einsatz fortschrittlicher quantitativer Techniken erforderlich.

Bei Quanto Peon streben wir danach, die Lücke zwischen Finanzen und Technologie zu schließen, indem wir im Rahmen unserer Quanto Peon-Vorlesungsreihe kostenlose Vorträge zu Statistik und Finanzen anbieten. Unsere Mission ist es, das quantitative Finanzwesen zu demokratisieren und Einzelpersonen die Werkzeuge und das Wissen zur Verfügung zu stellen, mit denen sie ihre algorithmischen Handelsstrategien entwickeln können.

"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot
"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot
  • 2017.07.25
  • www.youtube.com
This talk was given by Max Margenot at the Quantopian Meetup in Santa Clara on July 17th, 2017. To learn more about Quantopian, visit: https://www.quantopian...
 

Brownsche Bewegung für Finanzmathematik | Brownsche Bewegung für Quanten | Stochastische Analysis


Brownsche Bewegung für Finanzmathematik | Brownsche Bewegung für Quanten | Stochastische Analysis

Hallo YouTube, und willkommen zurück auf dem ASX Portfolio-Kanal. Mein Name ist Jonathan und heute werden wir in die faszinierende Welt der Brownschen Bewegung eintauchen, insbesondere im Kontext der Finanzmathematik. Dies ist ein entscheidendes Thema, da es die Grundlage für stochastische Prozesse und stochastische Analysis bildet, die im Bereich der Finanzmathematik von wesentlicher Bedeutung sind. Die Brownsche Bewegung ist die Grundlage der Ito-Integrale und hat eine große Bedeutung. Daher ist es von größter Bedeutung, sie zu verstehen. In zukünftigen Videos werden wir die Mathematik weiter erforschen und dabei Themen wie die geometrische Brownsche Bewegung, ihre Anwendungen und Ito-Integrale behandeln. Klicken Sie unbedingt auf die Schaltfläche „Abonnieren“, wenn Sie über die kommenden Videos auf dem Laufenden bleiben möchten.

In diesem Video gehen wir ein Jupyter-Notizbuch durch, das ich vorbereitet habe, um zu erklären, was die Brownsche Bewegung ist und wie sie entsteht. Also, fangen wir gleich an. Wir beginnen mit der Betrachtung einer symmetrischen Irrfahrt und gehen dann zu einer skalierten Irrfahrt über, um zu demonstrieren, wie sie zur Brownschen Bewegung konvergieren. In dieser Erklärung verwenden wir Notationen und Beispiele aus Steven Shreves Buch „Stochastic Calculus for Finance II“.

Zuallererst ist es wichtig zu verstehen, dass die Haupteigenschaften der Brownschen Bewegung folgende sind: Es handelt sich um ein Martingal, was bedeutet, dass die Erwartung ausschließlich auf der aktuellen Position des Teilchen- oder Aktienpreises basiert. Darüber hinaus handelt es sich um einen Markov-Prozess, der quadratische Variationen akkumuliert. Die quadratische Variation ist ein einzigartiges Konzept in der stochastischen Analysis, das sie von der gewöhnlichen Analysis unterscheidet. In dieser Folge befassen wir uns mit der Bedeutung quadratischer Variation.

Wenn Sie dem Code folgen möchten, finden Sie ihn auf meiner Website. Ich habe die notwendigen Abhängigkeiten importiert, die wir für diese Demonstration benötigen. Es ist wichtig zu beachten, dass die Brownsche Bewegung ein stochastischer Prozess ist. Für unsere Zwecke betrachten wir einen gefilterten Wahrscheinlichkeitsraum mit Ergebnissen und einer Filterung F sowie einen Wahrscheinlichkeitsraum P. Hier haben wir eine Reihe realer Ergebnisse innerhalb des Intervalls von 0 bis zum Zeitpunkt T.

Die Brownsche Bewegung hat immer einen Anfangswert von Null. Es verfügt über unabhängige Inkremente, folgt einer Gaußschen Verteilung und weist fast sicher kontinuierliche Abtastpfade auf. Wir erklären Ihnen alle diese Eigenschaften im Detail.

Beginnen wir mit dem einfachsten Beispiel: einer symmetrischen Irrfahrt. Wenn Sie mit dem Konzept eines Random Walks nicht vertraut sind, stellen Sie es sich als eine Folge aufeinanderfolgender Münzwürfe vor. Jedes Ergebnis, dargestellt durch die Variable Omega, kann entweder ein Kopf oder eine Zahl sein. Wir werden die Variable X_j verwenden, um jedes Ergebnis darzustellen, wobei wir den Wert 1 für Kopf und -1 für Zahl annehmen.

Wenn wir einen Prozess definieren, bei dem m_0 gleich Null ist, dann ist m_k die Summe entlang aller möglichen Münzwurfpfade für k Würfe. In diesem Fall haben wir eine Zufallswanderung, bei der sich der Prozess um 1 nach oben oder um 1 nach unten bewegen kann, und wir summieren diese Inkremente über die Pfade. Ich habe ein Skript geschrieben, um 10 Beispielpfade über einen Zeithorizont von 10 Jahren zu generieren. Das Diagramm zeigt, wie sich die Zufallswanderung bei jedem Zeitschritt entlang der Pfade um 1 nach oben oder unten bewegt.

Dieses Beispiel zeigt einige interessante Eigenschaften. Erstens sind die Inkremente zwischen Zeiträumen, wie z. B. m_k+1 – m_k, unabhängig. Darüber hinaus ist die Erwartung dieser unabhängigen Inkremente Null und die Varianz ist gleich der Zeitdifferenz oder dem Abstand zwischen den Zeitschritten (k_i+1 – k_i). Die Varianz akkumuliert mit einer Rate von eins pro Zeiteinheit.

Darüber hinaus ist die symmetrische Irrfahrt ein Martingal. Dies bedeutet, dass die bedingte Erwartung des nächsten Werts bei gegebener aktueller Position gleich der aktuellen Position ist. Im Kontext einer symmetrischen Irrfahrt ist die Erwartung der

Im nächsten Video werden wir dort weitermachen, wo wir aufgehört haben, und untersuchen, wie man mit Python Beispiele für geometrische Brownsche Bewegungen erstellt. Die geometrische Brownsche Bewegung ist ein stochastischer Prozess, der in der Finanzmathematik häufig zur Modellierung von Aktienkursen verwendet wird. Es ist ein wesentliches Konzept, das es in diesem Bereich zu verstehen gilt.

Aber bevor wir uns damit befassen, wollen wir noch einmal einige der wichtigsten Eigenschaften der Brownschen Bewegung zusammenfassen. Die Brownsche Bewegung ist ein stochastischer Prozess, der durch mehrere Eigenschaften gekennzeichnet ist:

  1. Unabhängige Inkremente: Die Inkremente der Brownschen Bewegung sind unabhängig, was bedeutet, dass die Änderung zwischen zwei beliebigen Zeitpunkten nichts mit der Änderung zwischen zwei anderen Punkten zu tun hat.

  2. Gaußsche Verteilung: Die Inkremente der Brownschen Bewegung folgen einer Gaußschen oder Normalverteilung. Diese Verteilung beschreibt die Wahrscheinlichkeit verschiedener Ergebnisse und ist ein grundlegendes Konzept der Wahrscheinlichkeitstheorie.

  3. Kontinuierliche Abtastpfade: Die Brownsche Bewegung weist kontinuierliche Abtastpfade auf, was bedeutet, dass sie in jedem Zeitabschnitt nicht differenzierbar ist. Aufgrund dieser Eigenschaft eignet es sich zur Modellierung verschiedener Phänomene mit zufälligen Schwankungen.

  4. Quadratische Variation: Die quadratische Variation ist eine einzigartige Eigenschaft der Brownschen Bewegung in der stochastischen Analysis. Es misst die über die Zeit akkumulierten Schwankungen und ist entscheidend für das Verständnis des Verhaltens stochastischer Prozesse.

Lassen Sie uns nun die geometrische Brownsche Bewegung diskutieren. Die geometrische Brownsche Bewegung ist eine Erweiterung der Brownschen Bewegung, die exponentielles Wachstum beinhaltet. Es wird häufig verwendet, um das Verhalten finanzieller Vermögenswerte wie Aktienkurse zu modellieren. Die geometrische Brownsche Bewegung hat die folgende Form:

dS(t) = μS(t)dt + σS(t)dW(t)

Hier stellt S(t) den Vermögenspreis zum Zeitpunkt t dar, μ ist die erwartete Rendite oder Driftrate, σ ist die Volatilität oder Standardabweichung der Renditen, dt ist ein kleines Zeitintervall und dW(t) ist eine Standard-Brownsche Bewegung Zuwachs.

Um die geometrische Brownsche Bewegung zu simulieren, können wir den Prozess mithilfe numerischer Methoden wie der Euler-Methode oder dem Itô-Integral diskretisieren. Mit diesen Methoden können wir den kontinuierlichen Prozess anhand einer Folge diskreter Schritte annähern.

Im kommenden Video werden wir die mathematischen Details der geometrischen Brownschen Bewegung und ihre Anwendungen in der Finanzmathematik untersuchen. Wir werden außerdem praktische Beispiele und Codeausschnitte in Python bereitstellen, um geometrische Brownsche Bewegung zu simulieren und zu visualisieren.

Wenn Sie mehr über dieses Thema erfahren möchten, abonnieren Sie unbedingt unseren Kanal und bleiben Sie auf dem Laufenden für das nächste Video. Wir freuen uns darauf, weitere Erkenntnisse mit Ihnen zu teilen. Vielen Dank für Ihre Aufmerksamkeit und bis zum nächsten Video!

Brownian Motion for Financial Mathematics | Brownian Motion for Quants | Stochastic Calculus
Brownian Motion for Financial Mathematics | Brownian Motion for Quants | Stochastic Calculus
  • 2021.09.09
  • www.youtube.com
In this tutorial we will investigate the stochastic process that is the building block of financial mathematics. We will consider a symmetric random walk, sc...
 

Simulation der geometrischen Brownschen Bewegung in Python | Stochastische Berechnung für Quanten


Simulation der geometrischen Brownschen Bewegung in Python | Stochastische Berechnung für Quanten

Guten Tag, YouTube, und willkommen zurück im ASX Portfolio Channel. Mein Name ist Jonathan und heute werden wir die geometrische Brownsche Bewegung in Python simulieren. In diesem Tutorial gehen wir nicht auf die Ableitung der Dynamik der geometrischen Brownschen Bewegung ein und behandeln auch nicht die Ito-Kalküle, Ito-Integrale und stochastische Prozesse. Wir werden diese Themen jedoch im folgenden Tutorial im Detail untersuchen. Wenn Sie mehr darüber erfahren möchten, abonnieren Sie bitte unseren Kanal und klicken Sie auf die Benachrichtigungsglocke, damit Sie benachrichtigt werden, wenn das Video veröffentlicht wird.

Lassen Sie uns in die Simulation einsteigen. Ich werde dieses Jupyter-Notebook zu Demonstrationszwecken verwenden. Zuerst definieren wir die Parameter für unsere Simulation. Der Driftkoeffizient mu wird über ein Jahr auf 0,1 oder 10 % festgelegt. Wir definieren die Anzahl der Zeitschritte als „n“ und setzen sie für eine granulare Simulation auf 100. Die Zeit wird in Jahren gemessen und mit „T“ bezeichnet. Die Anzahl der Simulationen wird mit „m“ bezeichnet und auf 100 festgelegt. Der anfängliche Aktienpreis S0 wird auf 100 und die Volatilität Sigma auf 30 festgelegt. Importieren wir die erforderlichen Abhängigkeiten: Numpy als NP und Matplotlib .pyplot als plt.

Lassen Sie uns nun die geometrischen Brownschen Bewegungspfade simulieren. Um den Zeitschritt zu berechnen, teilen wir T durch n. Als Nächstes verwenden wir Numpy-Arrays, um die Simulation in einem Schritt durchzuführen, anstatt über Pfade zu iterieren. Wir definieren ein Array namens „st“ und verwenden die Exponentialfunktion von Numpy. Innerhalb der Funktion definieren wir die Komponenten: mu minus Sigma-Quadrat dividiert durch 2, multipliziert mit dt. Dann multiplizieren wir Sigma mit der Funktion random.normal von Numpy, die eine Stichprobe aus der Normalverteilung erstellt, und multiplizieren es mit der Quadratwurzel von dt. Die Größe dieses Arrays beträgt m mal n und stellt die Anzahl der Simulationen bzw. Zeitschritte dar. Da wir die Simulation für jeden Zeitschritt wünschen, nehmen wir die Transponierung dieses Arrays.

Um den Anfangspunkt für jede Simulation einzuschließen, verwenden wir die vstack-Funktion von numpy, um ein Numpy-Array von Einsen mit dem st-Simulationsarray zu stapeln. Dadurch wird sichergestellt, dass jede Simulation mit dem Anfangswert beginnt. Abschließend multiplizieren wir das gestapelte Array mit dem Anfangswert, um die täglichen Änderungen in Bezug auf Drift, Varianz und stochastische Komponente zu berücksichtigen. Dadurch erhalten wir die Zeitschrittimplementierungen. Um diese Werte über die Zeit zu akkumulieren, verwenden wir die kumulative Produktfunktion von Numpy entlang jedes Simulationspfads und geben dabei Achse 1 an. Dadurch wird das kumulative Produkt für jeden Pfad berechnet.

Nachdem wir nun die simulierten Pfade haben, betrachten wir die Zeitintervalle in Jahren. Wir verwenden die Linspace-Funktion von Numpy, um gleichmäßig verteilte Zeitschritte von 0 bis T mit n+1 Leerzeichen zu generieren. Dadurch erhalten wir ein Array namens „time“. Als Nächstes erstellen wir ein Numpy-Array namens „fill“ mit derselben Form wie st, damit wir die Funktion plotten können. Wir verwenden die vollständige Funktion von numpy und setzen den fill_value auf time. Durch die Transponierung dieses Vektors können wir das Diagramm mit den Jahren auf der x-Achse und dem Aktienkurs auf der y-Achse darstellen und dabei die Streuung berücksichtigen, die sich aus der 30-prozentigen Volatilität und dem 10-prozentigen Anstieg des Mittelwerts oder der Drift darüber ergibt diese geometrische Brownsche Bewegung.

Die geometrische Brownsche Bewegung ist ein nützliches Modell für die Optionspreistheorie und verschiedene Anwendungen der Finanzmathematik. Ich hoffe, dass dieses Tutorial für Sie von Nutzen war. Im nächsten Video tauchen wir tiefer in die Finanzmathematik, die Ito-Kalküle und Ito-Integrale ein und untersuchen, wie wir die Komplexität stochastischer Differentialgleichungen durch Hinzufügen verschiedener Parameter erhöhen können. Wenn Sie mehr erfahren möchten, abonnieren Sie unbedingt unseren Kanal und klicken Sie auf die Benachrichtigungsglocke, damit Sie benachrichtigt werden, wenn das Video nächste Woche veröffentlicht wird. Bis dahin bleiben Sie gespannt auf weitere wertvolle Inhalte. Vielen Dank fürs Zuschauen und bis zum nächsten Video.

Simulating Geometric Brownian Motion in Python | Stochastic Calculus for Quants
Simulating Geometric Brownian Motion in Python | Stochastic Calculus for Quants
  • 2021.09.15
  • www.youtube.com
In this tutorial we will learn how to simulate a well-known stochastic process called geometric Brownian motion. This code can be found on my website and is ...
 

Stochastische Berechnung für Quanten | Geometrische Brownsche Bewegung mithilfe der Itô-Kalküle verstehen


Stochastische Berechnung für Quanten | Geometrische Brownsche Bewegung mithilfe der Itô-Kalküle verstehen

Guten Tag, YouTube, und willkommen zurück im ASX Portfolio. Heute werden wir diskutieren, warum die Brownsche Bewegung eine ungeeignete Wahl für die Modellierung von Finanzmärkten ist. Es liegt auf der Hand, dass die Brownsche Bewegung zu negativen Aktienkursen führen würde, was nicht realistisch ist. Stattdessen brauchen wir eine Möglichkeit, einige der stochastischen Eigenschaften der Brownschen Bewegung zu bewahren und sie in unsere Modelle zu integrieren. Dies kann durch den Einsatz von Ito-Prozessen erreicht werden, die es uns ermöglichen, die Risikoquelle der Brownschen Bewegung hinzuzufügen.

Ein bekannter Ito-Prozess ist die Geometrische Brownsche Bewegung (GBM), mit der viele von Ihnen vielleicht vertraut sind. Wir können die Eigenschaften der Brownschen Bewegung nutzen, um neue Modelle zu entwickeln, die besser mit Beispielen aus der Praxis übereinstimmen. Um dies zu erreichen, verwenden wir eine spezielle Art von Kalkül, die sogenannte Ito-Kalküle, die häufig in der stochastischen Finanzmathematik verwendet wird.

Heute konzentrieren wir uns auf das Verständnis des Ito-Integrals und darauf, wie es uns bei der Lösung komplexer Probleme helfen kann. Wir werden das Lemma von Ito diskutieren, das als Identität im Ito-Kalkül dient und bei der Ableitung von Regeln hilft. Darüber hinaus untersuchen wir die Ito-Dobelin-Formel und die Ableitung der Dynamik der geometrischen Brownschen Bewegung.

Um tiefer in diese Konzepte einzutauchen, empfehle ich Stephen Shreves zweites Buch „Continuous-Time Models for Stochastic Calculus“. Kapitel 4 behandelt den Stoff, den wir heute besprechen werden.

Beginnen wir nun damit, zu verstehen, was ein Ito-Integral ist. Es ist wichtig, sich daran zu erinnern, dass die gesamte Mathematik, die wir diskutieren werden, auf einem gefilterten Wahrscheinlichkeitsraum basiert. Dieser Bereich umfasst die Ergebnisse, Filterungen und Wahrscheinlichkeitsmaße. Unter Filterung versteht man eine Sigma-Algebra, die alle Informationen bis zum Zeitpunkt t enthält. Obwohl die Wahrscheinlichkeitstheorie komplex ist, werden wir heute nur kurz darauf eingehen. Für ein tiefergehendes Verständnis empfehle ich die Lektüre der ersten drei Kapitel von Shreves Buch.

Das Ito-Integral wird durch das Symbol ∫δdW dargestellt, wobei δ ein stochastischer Prozess und dW der Wiener-Prozess ist. Um die Bedeutung zu verstehen, stellen wir uns vor, den Zeitraum von 0 bis T in kleine Intervalle zu unterteilen. Wir können den stochastischen Prozess mit δ hoch n bezeichnen, wobei n die Anzahl der Zeitintervalle darstellt. Dieser Prozess ist angepasst, was bedeutet, dass seine Werte durch die Ergebnisse der Münzwürfe in jedem Zeitintervall bestimmt werden.

Betrachten Sie nun das Integral als Grenzwert einer Summe, wenn sich die Anzahl der Intervalle der Unendlichkeit nähert. Jeder Summand besteht aus dem stochastischen Prozess δ multipliziert mit der Änderung des Wiener-Prozesses zwischen Intervallen. Wenn die Intervalle kleiner werden, konvergieren wir gegen das Ito-Integral. Damit diese Grenze existiert, müssen jedoch zwei Bedingungen erfüllt sein: Der Prozess δ muss an die Filtration angepasst sein und quadratisch integrierbar sein.

Nachdem wir nun die Notation verstanden haben, gehen wir zu den allgemeinen Ito-Prozessen über. Diese Prozesse finden im selben Zeitbereich mit demselben Ergebnisraum statt. Dabei handelt es sich um zeitbasierte Integrale und Ito-Integrale im Hinblick auf den Wiener-Prozess. Das zeitbasierte Integral ähnelt einem regulären Riemann-Integral, während das Ito-Integral die stochastische Natur des Prozesses erfasst. Diese Prozesse können in Drift- und Diffusionsterme unterteilt werden.

Ein Beispiel für einen Ito-Prozess ist die Geometrische Brownsche Bewegung (GBM). Es besteht aus einem Driftterm und einem Diffusionsterm. Die Drift wird durch eine Konstante μ bestimmt, während die Diffusion durch einen Flüchtigkeitsparameter σ gesteuert wird. Die Dynamik von GBM kann mithilfe von Integralen ausgedrückt werden, wie in der Gleichung dargestellt.

Darüber hinaus können wir auch das Integral eines Ito-Prozesses betrachten. Beispielsweise kann das Integral des Ito-Prozesses den Handelsgewinn und -verlust (P&L) darstellen.

In der Itô-Doob-Zerlegung wird dieser generische Prozess durch das Integral des Driftterms, das Integral des Diffusionsterms und den Itô-Integralterm repräsentiert. Nun bietet die Itô-Doob-Formel eine Möglichkeit, das Differential einer Funktion des Prozesses zu berechnen. Es besagt, dass das Differential der Funktion gleich der partiellen Ableitung der Funktion nach der Zeit plus den partiellen Ableitungen der Funktion nach den Zustandsvariablen multipliziert mit den Drifttermen plus den partiellen Ableitungen der Funktion nach der Zeit ist zu den Zustandsvariablen multipliziert mit den Diffusionstermen, plus dem Integral der partiellen Ableitungen der Funktion in Bezug auf die Zustandsvariablen multipliziert mit dem Itô-Integralterm.

Mit dieser Formel können wir die Änderung des Werts einer Funktion im Laufe der Zeit berechnen. Es ist ein grundlegendes Werkzeug in der Itô-Infinitesimalrechnung und wird häufig in der stochastischen Analysis und der Finanzmathematik eingesetzt.

Kommen wir nun zur geometrischen Brownschen Bewegung (GBM). Dabei handelt es sich um eine spezielle Art des Itô-Prozesses, der üblicherweise zur Modellierung der Dynamik von Aktienkursen und anderen Finanzanlagen verwendet wird. GBM umfasst sowohl Drift- als auch Diffusionskomponenten. Der Drift-Term stellt die erwartete Rendite des Vermögenswerts dar, während der Diffusions-Term die Volatilität oder Zufälligkeit der Preisbewegungen des Vermögenswerts erfasst.

Die Dynamik von GBM kann mithilfe des Itô-Kalküls abgeleitet werden. Indem wir die Itô-Formel auf den Logarithmus des Vermögenspreises anwenden, erhalten wir einen Ausdruck, der die Änderung des Logarithmus des Preises im Laufe der Zeit beschreibt. Diese Änderung entspricht dem Driftterm multipliziert mit dem Zeitinkrement plus dem Diffusionsterm multipliziert mit dem Itô-Integral. Indem wir beide Seiten der Gleichung potenzieren, stellen wir die Dynamik des Vermögenspreises selbst wieder her.

Das Verständnis der Dynamik von GBM ist für die Optionspreisgestaltung und das Risikomanagement von entscheidender Bedeutung. Es ermöglicht uns, das stochastische Verhalten von Vermögenspreisen zu modellieren und die Wahrscheinlichkeiten verschiedener Ergebnisse abzuschätzen. GBM ist in der Finanzmathematik weit verbreitet und diente als Grundlage für viele Preismodelle, beispielsweise das Black-Scholes-Modell für Optionspreise.

Zusammenfassend bietet die Itô-Kalküle einen leistungsstarken Rahmen für die Modellierung und Analyse stochastischer Prozesse im Finanzwesen. Durch die Einbeziehung von Itô-Integralen und die Anwendung des Itô-Lemmas und der Itô-Doob-Formel können wir die Dynamik verschiedener Finanzvariablen ableiten und Modelle entwickeln, die die stochastischen Eigenschaften realer Märkte erfassen. Die Itô-Infinitesimalrechnung hat den Bereich der Finanzmathematik revolutioniert und ist nach wie vor ein wesentliches Werkzeug zum Verständnis und Management finanzieller Risiken.

Stochastic Calculus for Quants | Understanding Geometric Brownian Motion using Itô Calculus
Stochastic Calculus for Quants | Understanding Geometric Brownian Motion using Itô Calculus
  • 2021.09.22
  • www.youtube.com
In this tutorial we will learn the basics of Itô processes and attempt to understand how the dynamics of Geometric Brownian Motion (GBM) can be derived. Firs...
 

Stochastische Berechnung für Quanten | Risikoneutrale Preisgestaltung für Derivate | Optionspreise erklärt


Stochastische Berechnung für Quanten | Risikoneutrale Preisgestaltung für Derivate | Optionspreise erklärt

In diesem Video befassen wir uns mit der Finanzmathematik hinter der Bewertung eines Finanzderivats mithilfe von Monte-Carlo-Simulation und risikoneutraler Preisgestaltung. Wir beantworten Fragen wie die Frage, warum die Monte-Carlo-Simulation verwendet wird, was risikoneutrale Preisgestaltung ist und warum die Aktienwachstumsrate nicht in das Derivatemodell einfließt.

Bei der risikoneutralen Preisgestaltung handelt es sich um eine Methode, bei der der Wert einer Option die diskontierte Erwartung ihrer zukünftigen Auszahlungen ist. Mit anderen Worten handelt es sich um den erwarteten Wert aller möglichen Auszahlungen eines Derivats, diskontiert auf den gegenwärtigen Zeitpunkt. Die zugrunde liegende Aktienwachstumsrate hat keinen Einfluss auf den Optionspreis im risikoneutralen Preisrahmen. Dies liegt daran, dass das Derivat und die zugrunde liegende Aktie eine perfekte Korrelation aufweisen, was eine Replikation und den Aufbau eines risikofreien Portfolios ermöglicht.

Die Verwendung des risikoneutralen Preisansatzes bietet gegenüber anderen Bewertungsmethoden mehrere Vorteile. Erstens sind geschlossene Lösungen bei komplexen Ableitungsformulierungen möglicherweise nicht realisierbar. In solchen Fällen kann der Einsatz von Replikationsmethoden und die Lösung partieller Differentialgleichungen (PDEs) rechenintensiv sein. Die risikoneutrale Preisgestaltung hingegen ermöglicht eine einfache Annäherung an den Optionswert mithilfe einer Monte-Carlo-Simulation, die weniger rechenintensiv ist.

Um die risikoneutrale Preisgestaltung zu erklären, betrachten wir zunächst das Binomialmodell mit einer Periode. In diesem Modell kann die Aktie entweder steigen oder fallen, und der Optionswert hängt von diesen beiden möglichen Ergebnissen ab. Indem wir ein Portfolio aus der zugrunde liegenden Aktie und einem risikofreien Vermögenswert aufbauen, können wir die Auszahlung der Option nachbilden. Gemäß dem Grundsatz der Arbitragefreiheit muss der Optionswert zum Zeitpunkt Null dem Wert des Portfolios zum Zeitpunkt Null entsprechen. Durch Lösen der linearen Gleichungen können wir eine Formel erhalten, die den diskontierten Erwartungswert im Binomialmodell darstellt.

Wir führen das Konzept eines risikoneutralen Wahrscheinlichkeitsmaßes ein, das als q bezeichnet wird und uns den Übergang von den physischen Wahrscheinlichkeiten des Aktienkurses zu den risikoneutralen Wahrscheinlichkeiten ermöglicht. Diese Verschiebung wird durch Neugewichtung der physikalischen Wahrscheinlichkeiten durch eine Zufallsvariable namens Random-Nickdem-Ableitung erreicht. Dieses Derivat ermöglicht es uns, den Optionswert von der Welt der risikoneutralen Preisgestaltung in die Welt der physikalischen Wahrscheinlichkeit zu übertragen.

Das Ziel der risikoneutralen Preisgestaltung besteht darin, den als Zt bezeichneten Random-Nickdem-Derivatprozess zu identifizieren, der sicherstellt, dass alle diskontierten Aktienpreise Martingale unter dem risikoneutralen Wahrscheinlichkeitsmaß q sind. Durch einen Maßwechsel können wir die ursprüngliche Brownsche Bewegung unter dem physikalischen Wahrscheinlichkeitsmaß in eine neue Brownsche Bewegung unter dem risikoneutralen Wahrscheinlichkeitsmaß umwandeln. Diese neue Brownsche Bewegung ist ein Martingalprozess, was darauf hinweist, dass ihre Erwartung über die Zeit konstant bleibt.

Um diese Konzepte anzuwenden, betrachten wir das geometrische Brownsche Bewegungsmodell, das die Dynamik einer nicht Dividenden zahlenden Aktie darstellt. Das Modell besteht aus einer deterministischen Komponente und einer stochastischen Komponente, die die Volatilität darstellen. Allerdings ist die ursprüngliche Aktiendynamik aufgrund der deterministischen Komponente unter den physikalischen Wahrscheinlichkeiten kein Martingal. Um die Dynamik zu einem Martingal zu machen, führen wir die Radon-Nikodym-Ableitung ein, die den Driftterm entfernt und die Bestandsdynamik in einen Martingalprozess unter dem risikoneutralen Wahrscheinlichkeitsmaß umwandelt.

Zusammenfassend lässt sich sagen, dass risikoneutrale Preisgestaltung und Monte-Carlo-Simulation einen wertvollen Rahmen für die Bewertung von Finanzderivaten bieten. Der risikoneutrale Preisansatz bietet Vorteile wie Einfachheit, Recheneffizienz und die Möglichkeit, komplexe Derivatstrukturen zu handhaben. Indem wir das Random-Nickdem-Derivat verwenden und das Maß von physikalischen Wahrscheinlichkeiten auf risikoneutrale Wahrscheinlichkeiten ändern, können wir Derivate genau bewerten und ihre Auszahlungen auf risikofreie Weise nachbilden.

Stochastic Calculus for Quants | Risk-Neutral Pricing for Derivatives | Option Pricing Explained
Stochastic Calculus for Quants | Risk-Neutral Pricing for Derivatives | Option Pricing Explained
  • 2022.01.12
  • www.youtube.com
In this tutorial we will learn the basics of risk-neutral options pricing and attempt to further our understanding of Geometric Brownian Motion (GBM) dynamic...
 

Aktienvolatilität mit dem Ornstein-Uhlenbeck-Prozess handeln


Aktienvolatilität mit dem Ornstein-Uhlenbeck-Prozess handeln

Zu Beginn des Jahres 2020 erlebte der S&P 500 einen deutlichen Anstieg der Volatilität, da die Preise stark sanken. Innerhalb eines Monats stürzte der Index um fast tausend Punkte ab. Gleichzeitig stieg in diesem Zeitraum auch die Erwartung zukünftiger Volatilität, basierend auf gehandelten Indexoptionen, stark an und erreichte einen Höchstwert von 66. Es zeigte sich, dass in Zeiten der Marktvolatilität, in denen der Indexwert sank, der VIX (Volatilitätsindex) stieg. Der VIX dient als zukünftige Schätzung der Volatilität. Dieses Phänomen veranlasste Market Maker und Handelsexperten zu der Annahme, dass die realisierte Volatilität anhalten würde.

In diesem Video möchten wir die Marktmerkmale der Volatilität erklären und eine Methode zur Modellierung der Volatilität diskutieren, indem wir die Ornstein-Uhlenbeck-Formel an einen bestimmten Volatilitätsindex anpassen. Wir werden die Maximum-Likelihood-Schätzmethode verwenden, um die drei Parameter des Modells anhand von Marktdaten zu kalibrieren. Anschließend simulieren wir diesen Prozess in Python und können so die Dynamik der Volatilität über die Zeit nachvollziehen und analysieren.

Um dies zu erreichen, importieren wir verschiedene Abhängigkeiten wie time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader und die Funktion plot_acf aus dem Statistikmodul. Die von uns verwendeten Daten sind die S&P 500-Daten ab 2003. Um das Volatilitätsclustering und seine Eigenschaften in Finanzzeitreihen zu untersuchen, verweisen wir auf das Forschungspapier „Volatility Clustering in Financial Markets“ von Ramacant (2005), das die statistischen Eigenschaften von Finanzzeitreihen untersucht. Die drei wesentlichen Eigenschaften, auf die wir uns konzentrieren werden, sind übermäßige Volatilität, starke Schwankungen und Volatilitätscluster.

Unter Volatilitätsclustering versteht man die Beobachtung, dass auf große Preisänderungen tendenziell weitere große Änderungen folgen, unabhängig von ihrer Richtung, während auf kleine Änderungen häufig kleine Änderungen folgen. Diese quantitative Manifestation legt nahe, dass die Renditen zwar unkorreliert sein können, die absoluten Renditen oder ihre Quadrate jedoch eine kleine positive Korrelation aufweisen, die mit der Zeit allmählich abnimmt. Um dies zu analysieren, untersuchen wir Log-Renditen, die den Logarithmus der Preisänderungen im Zeitverlauf darstellen. Durch die visuelle Untersuchung der logarithmischen Renditen des S&P 500 können wir Cluster von großem Ausmaß in bestimmten Zeiträumen beobachten, wie beispielsweise die bedeutenden Cluster in den Jahren 2008–2009 und 2020.

Als nächstes bewerten wir die Korrelation zwischen verzögerten Protokollrenditen. Bemerkenswerterweise finden wir keine statistisch signifikante Autokorrelation in den Protokollergebnissen über den angegebenen Datenbereich. Wenn wir jedoch die logarithmischen Renditen quadrieren und uns auf die absolute Größe konzentrieren, beobachten wir eine starke positive Korrelation, die sich sogar auf verzögerte Tage und Wochen erstreckt. Dies impliziert, dass dieser Trend in Zeiten hoher Volatilität wahrscheinlich anhält und in Zeiten geringer Volatilität wahrscheinlich auch anhält. Dieses Phänomen wird als Volatilitätsclustering bezeichnet.

Um die rollierende Volatilität über eine bestimmte Anzahl von Tagen zu visualisieren, wählen wir ein Handelsfenster aus und berechnen die Standardabweichung über dieses Fenster. Zur Annualisierung der Volatilität ziehen wir die Quadratwurzel aus der Anzahl der Handelstage in einem Jahr, die typischerweise 252 beträgt. Dieser Ansatz ermöglicht es uns, in bestimmten Zeiträumen erhebliche Anstiege der realisierten Volatilität zu beobachten.

Um diesen realisierten Volatilitätsprozess zu modellieren, wenden wir uns der Ornstein-Uhlenbeck-Formel zu. Diese Formel, in der Finanzmathematik auch als Vasicek-Modell bekannt, berücksichtigt drei Parameter: Kappa, das die mittlere Umkehrrate darstellt; Theta, die durchschnittliche Volatilität, um die die Preise schwanken; und Sigma, die Volatilität selbst. Unser Ziel ist es, Parameterwerte zu finden, die die Wahrscheinlichkeit maximieren, dass die beobachteten Daten dieser Verteilung entsprechen.

Um dies zu erreichen, verwenden wir die Methode der Maximum-Likelihood-Schätzung (MLE), die auf Zufallsstichproben und Wahrscheinlichkeitsdichtefunktionen anwendbar ist. Bei der Normalverteilung ist die Likelihood-Funktion das Produkt der einzelnen Stichprobenwahrscheinlichkeiten bei gegebenen Parametern. Indem wir den Logarithmus der Wahrscheinlichkeitsfunktion nehmen, können wir konvertieren

Nachdem wir nun den Erwartungswert und die Varianz des Ornstein-Uhlenbeck-Prozesses abgeleitet haben, können wir mit der Modellierung der Volatilität mithilfe dieses Rahmenwerks fortfahren. Dazu kalibrieren wir die Modellparameter mithilfe der Methode der Maximum-Likelihood-Schätzung (MLE) auf Marktdaten.

Zuerst importieren wir die notwendigen Abhängigkeiten, einschließlich Bibliotheken wie time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader und die Funktion plot_acf aus dem Statistikmodul. Wir importieren auch die S&P 500-Daten seit 2003, die als unsere Marktdaten dienen.

Als nächstes untersuchen wir das Konzept der Volatilitätsclusterung in Finanzzeitreihen. Unter Volatilitätsclustering versteht man das Phänomen, dass auf große Preisänderungen tendenziell weitere große Änderungen folgen und auf kleine Änderungen tendenziell kleine Änderungen. Wir beobachten diesen Clustering-Effekt visuell, wenn wir die logarithmischen Renditen des S&P 500 grafisch darstellen. Wir können sehen, dass sich in Zeiten der Marktvolatilität die Größe der logarithmischen Renditen häuft, was auf eine Korrelation zwischen großen Preisbewegungen hinweist. Beispielsweise können wir Häufungen während der Finanzkrise 2008–2009 und dem Volatilitätsanstieg im Jahr 2020 beobachten.

Um die Korrelation zwischen Protokollrenditen zu quantifizieren, berechnen wir die Autokorrelationsfunktion (ACF). Während die logarithmischen Renditen selbst keine signifikante Autokorrelation aufweisen, weisen die quadrierten logarithmischen Renditen (die die absolute Größe darstellen) eine kleine positive Korrelation auf, die mit der Zeit langsam abnimmt. Diese Autokorrelation der absoluten Größenordnung bestätigt das Vorhandensein einer Volatilitätshäufung, bei der Perioden hoher Volatilität tendenziell andauern, während Perioden niedriger Volatilität tendenziell auch andauern.

Um die Volatilität weiter zu analysieren, berechnen wir die rollierende Volatilität über eine bestimmte Anzahl von Tagen, indem wir die Standardabweichung berechnen und sie mithilfe der Quadratwurzel der Anzahl der Handelstage in einem Jahr auf das Jahr umrechnen. Durch die Darstellung der gleitenden Volatilität können wir Perioden erhöhter Volatilität beobachten, die durch deutliche Anstiege der realisierten Volatilität angezeigt werden.

Jetzt stellen wir die Ornstein-Uhlenbeck-Formel (OU) vor, die zur Modellierung der Volatilität verwendet wird. Das OU-Modell berücksichtigt die Mean-Reversion, das Durchschnittsniveau und die Volatilität um den Durchschnittspreis. Zu den Parametern des Modells gehören Kappa (Rate der mittleren Umkehrung), Theta (durchschnittliches Niveau) und Sigma (Volatilität). Um diese Parameter zu schätzen, wenden wir die Methode der Maximum-Likelihood-Schätzung (MLE) an, bei der die Parameterwerte ermittelt werden, die die Wahrscheinlichkeit maximieren, dass die beobachteten Daten aus der OU-Verteilung stammen.

Wir beginnen mit der Diskussion der Likelihood-Funktion, die die gemeinsame Wahrscheinlichkeitsdichtefunktion (pdf) der beobachteten Daten bei gegebenen Parametern ist. Bei der Normalverteilung ist die Likelihood-Funktion das Produkt der einzelnen PDF-Werte. Die Verwendung des Logarithmus der Likelihood-Funktion vereinfacht die Berechnungen, da sie das Produkt der Wahrscheinlichkeiten in die Summe der Logarithmen umwandelt. Indem wir den Maximum-Likelihood-Schätzer (MLE) der Parameter ermitteln, können wir die Werte bestimmen, die die Wahrscheinlichkeit der beobachteten Daten maximieren.

Im Fall des OU-Prozesses müssen wir numerische Methoden verwenden, um die Maximum-Likelihood-Schätzungen zu ermitteln, da die Log-Likelihood-Funktion nicht differenzierbar ist. Wir verwenden die Funktion scipy.optimize.minimize, um die negative Log-Likelihood zu minimieren, da sie eine numerische Lösung für das Maximierungsproblem bietet. Durch die Definition der Log-Likelihood-Funktion, der Anfangsparameter und Einschränkungen können wir die Parameter schätzen, die die Wahrscheinlichkeit der beobachteten Daten maximieren.

Sobald wir die Parameter des OU-Prozesses geschätzt haben, können wir den Prozess mit Python simulieren. Wir können den Prozess simulieren, indem wir entweder die Zeitschritte diskretisieren und einen Pfad über die Zeit erhalten oder ihn als zeitkontinuierlichen Itô-Prozess simulieren. Die letztere Methode bietet eine genauere Darstellung der Volatilitätsdynamik zu bestimmten Zeiten.

Abschließend werden in dem Text die Volatilitätsmerkmale erörtert, die beim S&P 500 in Zeiten der Marktvolatilität beobachtet werden. Es stellt das Konzept des Volatilitäts-Clusterings vor und demonstriert seine Präsenz anhand von Log-Renditen und quadrierten Log-Renditen. Anschließend wird das Ornstein-Uhlenbeck-Modell (OU) als Rahmen zur Modellierung der Volatilität eingeführt und die Methode der Maximum-Likelihood-Schätzung (MLE) zur Schätzung der Modellparameter verwendet. Abschließend wird die Simulation des OU-Prozesses erläutert, die eine Analyse und ein Verständnis der Volatilitätsdynamik im Zeitverlauf ermöglicht.

Trading stock volatility with the Ornstein-Uhlenbeck process
Trading stock volatility with the Ornstein-Uhlenbeck process
  • 2022.03.07
  • www.youtube.com
Understanding and modelling volatility accurately is of utmost importance in financial mathematics. The emergence of volatility clustering in financial marke...
 

Die Zauberformel für den risikofreien Handel mit Optionen



Die Zauberformel für den risikofreien Handel mit Optionen

In diesem Video erfahren Sie, wie Sie mit der Breeden-Litzenberger-Formel risikoneutrale Wahrscheinlichkeitsdichtefunktionen aus Optionspreisen ableiten. Diese Technik ist äußerst nützlich, wenn die Berechnung von Optionspreisen zeitaufwändig und rechenintensiv wird, insbesondere bei komplexer Dynamik und hochdimensionalen Szenarien. Die Breeden-Litzenberger-Formel ermöglicht es uns, komplexe Derivate einmal für verschiedene Strikes und Restlaufzeitwerte zu berechnen, was zu einer risikoneutralen Wahrscheinlichkeitsverteilungsfunktion führt, die die Berechnung verschiedener komplexer Derivate vereinfacht.

Lassen Sie uns zunächst das Konzept der risikoneutralen Wahrscheinlichkeit verstehen. Die Feynman-Kac-Analyse ermöglicht es uns, die risikoneutrale Wahrscheinlichkeit als Maß (Q) der terminalen risikoneutralen Wahrscheinlichkeit zum Zeitpunkt (t) zu definieren. Die kumulative Wahrscheinlichkeitsverteilungsfunktion (F) repräsentiert die risikoneutrale Wahrscheinlichkeitsverteilung. Die Preisfestsetzung für eine europäische Call-Option zum Zeitpunkt (t) mit Strike (k) und Restlaufzeit (tau) kann anhand der risikoneutralen diskontierten Erwartung der Auszahlung erfolgen. Dies kann als Integral von (S_t – k) multipliziert mit der risikoneutralen Dichtefunktion (pdf) zwischen Strike (k) und Unendlich ausgedrückt werden, diskontiert mit dem risikofreien Zinssatz.

Um die risikoneutrale Wahrscheinlichkeit direkt aus dieser Formel zu berechnen, können wir die Breeden-Litzenberger-Formel von 1978 verwenden. Sie besagt, dass die erste Ableitung des Integrals in Bezug auf den Strike (k) gleich minus dem exponentiellen Abzinsungsfaktor multipliziert mit ist (1 - F), wobei F die kumulative Dichtefunktion ist. Die zweite Ableitung des um den Strike (k) zentrierten Integrals extrahiert das pdf, das dem Abzinsungsfaktor multipliziert mit dem risikoneutralen pdf entspricht.

Lassen Sie uns nun besprechen, wie diese Formel in Python angewendet wird. Wir müssen Bibliotheken wie NumPy, SciPy, Pandas und Matplotlib importieren. Als Beispiel betrachten wir eine europäische Call-Option mit stochastischer Volatilität nach dem Heston-Modell. Das Heston-Modell liefert die Dynamik des zugrunde liegenden Vermögenswerts und seine Volatilität. Wir initialisieren die notwendigen Parameter wie den Aktienkurs, den Ausübungspreis, die Laufzeit, den risikofreien Zinssatz und die Parameter des Heston-Modells wie die mittlere Umkehrrate, die langfristige Varianz, die anfängliche Volatilität, die Korrelation und die Volatilitätsvolatilität.

Mithilfe der Breeden-Litzenberger-Formel können wir die risikoneutrale Wahrscheinlichkeitsverteilungsfunktion bestimmen. Durch Approximation der zweiten Ableitung mithilfe der Finite-Differenzen-Approximation berechnen wir die risikoneutrale Verteilung für verschiedene Strikes und Restlaufzeitwerte. Wir erstellen ein 2D-PDF für eine bestimmte Laufzeit.

Um Optionspreise nach dem Heston-Modell zu berechnen, verwenden wir die charakteristische Funktion und führen eine numerische Integration mittels Rechteckintegration durch. Wir definieren die charakteristische Funktion und berechnen das komplexe Integral über einen angegebenen Bereich mithilfe der Rechteckintegration. Die für die Integration gewählte Schrittweite beeinflusst die Präzision, insbesondere bei Out-of-the-Money-Optionen.

Wir vergleichen die mithilfe der Rechteckintegration erzielten Ergebnisse mit der QuantLib-Bibliothek, die in C implementiert ist und eine genauere numerische Integration bietet. Obwohl es einige Unterschiede zwischen den beiden Ansätzen gibt, ist der mittlere quadratische Fehler (MSE) gering. Die Abweichungen sind hauptsächlich auf Rundungsfehler zurückzuführen, die durch die binäre Darstellung von Dezimalwerten in Python verursacht werden.

Nachdem wir das diskrete ungefähre PDF erhalten haben, multiplizieren wir es mit dem Vorwärtsfaktor. Wir verwenden Interpolation, um die Kurve zu glätten und eine kontinuierliche risikoneutrale Verteilungsfunktion zu erstellen. Schließlich können wir diese risikoneutrale Verteilung nutzen, um verschiedene komplexe Derivate einfach zu bewerten.

Zusammenfassend ermöglicht uns die Breeden-Litzenberger-Formel, risikoneutrale Wahrscheinlichkeitsdichtefunktionen aus Optionspreisen abzuleiten. Indem wir die zweite Ableitung mithilfe der Finite-Differenzen-Approximation approximieren und eine numerische Integration durchführen, können wir die risikoneutrale Verteilung für verschiedene Strikes und Restlaufzeitwerte berechnen. Dadurch sind wir in der Lage, komplexe Derivate effizient zu bepreisen.

The Magic Formula for Trading Options Risk Free
The Magic Formula for Trading Options Risk Free
  • 2022.06.05
  • www.youtube.com
In 1978, Breeden and Litzenberger showed how under risk-neutral pricing, that the discounted Risk-Neutral Density (RND) function could be estimated directly...