Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
So verwenden Sie den Python-Handelsbot für Investitionen
So verwenden Sie den Python-Handelsbot für Investitionen
Nehmen Sie an diesem informativen Webinar teil und tauchen Sie in die Welt der Python-Trading-Bots für Anlagezwecke ein. Dieses Video richtet sich sowohl an Anfänger als auch an erfahrene Händler und dient als wertvolle Ressource für Personen, die Python für den algorithmischen Handel nutzen möchten.
Während des Webinars erhalten Sie praktische Einblicke und Kenntnisse, die Ihre Algo-Handelsstrategien verbessern werden. Python bietet mit seinen umfangreichen Bibliotheken und Automatisierungsmöglichkeiten ein enormes Potenzial zur Rationalisierung und Optimierung Ihres Handelsansatzes. Indem Sie die Leistungsfähigkeit von Python nutzen, können Sie Ihre Handelseffizienz steigern und Marktchancen nutzen.
Unabhängig davon, ob Sie gerade erst mit dem algorithmischen Handel beginnen oder Ihre vorhandenen Fähigkeiten verfeinern möchten, bietet dieses Video einen umfassenden Überblick über den algorithmischen Handel mit Python. Es dient als unverzichtbare Ressource für Händler und Investoren, die in der heutigen dynamischen Finanzlandschaft an der Spitze bleiben wollen. Bereiten Sie sich darauf vor, Ihr Verständnis der Rolle von Python im algorithmischen Handel zu erweitern und neue Erfolgsmöglichkeiten zu erschließen.
Behandelten Themen:
Optimale Portfolioallokation durch maschinelles Lernen
Optimale Portfolioallokation durch maschinelles Lernen
Ziel dieser Sitzung ist es, Ihnen die Methoden der optimalen Portfolioallokation mithilfe von maschinellem Lernen näherzubringen. Erfahren Sie, wie Sie Algorithmen verwenden, die maschinelles Lernen im Kern nutzen, um die Kapitalallokationsentscheidung zu treffen. Präsentiert von Vivin Thomas, VP, Quantitative Research, Equities (EDG) Modelling, JPMorgan Chase & Co.
In dieser Diskussion werden wir den faszinierenden Bereich des algorithmischen Handels erkunden und uns dabei insbesondere auf die Nutzung von Algorithmen für maschinelles Lernen konzentrieren. Unser Hauptziel besteht darin, ausgefeilte Algorithmen zu entwickeln, die im Kern maschinelles Lernen nutzen, um optimale Entscheidungen zur Kapitalallokation zu treffen.
Um dies zu erreichen, werden wir eine Low-Frequency-Strategie entwickeln, die sich dadurch auszeichnet, dass sie ihr verfügbares Kapital in regelmäßigen Abständen auf eine sorgfältig ausgewählte Gruppe von Basiswerten, auch Basket-Assets genannt, verteilt. Durch die Einbindung maschineller Lerntechniken wollen wir die Genauigkeit und Effizienz des Kapitalallokationsprozesses verbessern.
Darüber hinaus werden wir Long-only-, Low-Frequency-Asset-Allocation-Algorithmen konstruieren, die in diesem Rahmen arbeiten. Diese Algorithmen werden so konzipiert, dass sie eine Vanilla-Allokationsstrategie übertreffen, die sich bei der Entscheidungsfindung ausschließlich auf empirische Momentum-Indikatoren verlässt. Durch den Vergleich der Leistung dieser Algorithmen mit der Benchmark-Strategie können wir den Wert und die Wirksamkeit des Einsatzes von maschinellem Lernen im Asset-Allokationsprozess beurteilen.
Durch diese Untersuchung werden wir Einblicke in die potenziellen Vorteile und Vorteile der Integration von Algorithmen für maschinelles Lernen in Kapitalallokationsstrategien gewinnen. Tauchen Sie mit uns in die spannende Welt des algorithmischen Handels ein und entdecken Sie, wie diese fortschrittlichen Algorithmen die Art und Weise, wie wir Vermögensallokation und Investitionsentscheidungen angehen, revolutionieren können.
Tutorial zur Stimmungsanalyse | Erfahren Sie, wie Sie Aktientrends vorhersagen und statistische Arbitrage anwenden
Tutorial zur Stimmungsanalyse | Erfahren Sie, wie Sie Aktientrends vorhersagen und statistische Arbitrage anwenden
Während dieses Webinars stellt der Moderator drei erfahrene Persönlichkeiten vor: Design Vetii, Javier Cervantes und Siddhantu, die ihre Reise im algorithmischen Handel durch das E-PAT-Programm begonnen haben. Sie werden ihre E-PAT-Präsentationen und -Projekte mit den Zuschauern teilen und dabei verschiedene Themen und ihre Erfahrungen im E-PAT-Programm behandeln.
Der Moderator betont, dass das Flaggschiffprogramm E-PAT den Teilnehmern die Möglichkeit bietet, sich auf ihre bevorzugte Anlageklasse oder ihr bevorzugtes Strategieparadigma für ihr Projekt zu spezialisieren. Dieser maßgeschneiderte Ansatz ermöglicht es den Teilnehmern, Fachwissen in ihrem gewählten Schwerpunktbereich zu erkunden und weiterzuentwickeln.
Es wird hervorgehoben, dass diese Sitzung aufgezeichnet und auf YouTube und ihrem Blog geteilt wird, was eine wertvolle Lernmöglichkeit für angehende Quants und Personen bietet, die sich für algorithmischen Handel interessieren. Der Moderator ermutigt die Zuschauer, das von diesen erfahrenen Händlern geteilte Wissen und die Erkenntnisse aus ihren E-PAT-Projekten zu nutzen.
Die erste Präsentation wird von Design Vetii gehalten, einem Rentenhändler aus Südafrika. Design Vetii teilt sein Projekt zur Vorhersage von Aktientrends mithilfe technischer Analysen. Sie sammelten über einen Zeitraum von 10 Jahren Daten von den Top-10-Aktien im südafrikanischen Top-40-Index. Mithilfe von Python wurden aus diesen Daten sechs gängige technische Indikatoren abgeleitet, die dann in ein maschinelles Lernmodell zur Aktientrendanalyse integriert wurden. Der Moderator bespricht ihre Motivation und Faszination für den Bereich des maschinellen Lernens während des gesamten Projekts.
Anschließend erörtert der Referent die eingesetzte Anlagestrategie und präsentiert die Ergebnisse seines maschinellen Lernalgorithmus. Sie nutzten ein gleichgewichtetes Portfolio bestehend aus 10 Aktien und implementierten sowohl tägliche als auch wöchentliche Rebalancing-Strategien. Das täglich neu ausbalancierte Portfolio erzielte in den letzten zweieinhalb Jahren eine Rendite von 44,69 % und übertraf damit die Top-40-Benchmark-Rendite von 21,45 %. Ebenso zeigte das wöchentlich neu ausbalancierte Portfolio eine deutliche Outperformance und erzielte eine Rendite von 36,52 % über der Benchmark. Der Redner erkennt den Zeit- und Arbeitsaufwand an, der für die Feinabstimmung der Parameter des maschinellen Lernmodells erforderlich ist, und hebt die durch diesen Prozess gewonnenen Lernerfahrungen hervor. Sie sind sich jedoch auch der Einschränkungen und potenziellen Mängel bewusst, die ein alleiniger Vergleich der Strategie mit technischen Indikatoren wie relativer Stärke, Bollinger-Bändern und MACD mit sich bringt.
Der Redner reflektiert die Lehren aus seinem Projekt und denkt über Möglichkeiten nach, es in Zukunft zu verbessern. Sie erwähnen das Interesse an der Untersuchung eines Index, der die Top-10-Aktien umfasst, und erkennen einen Fehler an, der bei der Verwendung des Shuffle-Attributs in ihrem maschinellen Lernalgorithmus für eine Finanzzeitreihe gemacht wurde. Der Redner ist stolz auf seine Fähigkeit, in Python zu programmieren und eine Strategie zu entwickeln, die maschinelles Lernen und technische Indikatoren kombiniert. Sie schlagen vor, grundlegende Faktoren wie P-Verhältnisse, Stimmungsanalysen und andere Marker in zukünftige Projekte einzubeziehen und alternative Modelle für maschinelles Lernen zu erkunden. Darüber hinaus geht der Redner auf Fragen des Publikums bezüglich der Wahl technischer Indikatoren und der Implementierung des Random-Forest-Algorithmus ein.
Im Anschluss an die Präsentation führt der Moderator eine Frage-und-Antwort-Runde mit den Zuschauern. Es werden verschiedene Fragen beantwortet, darunter Anfragen zu Intraday-Handelsstrategien und empfohlene Bücher zum Erlernen von maschinellem Lernen im Kontext der Finanzanalyse. Der Referent schlägt ein technisches Analysebuch zum Verständnis herkömmlicher Indikatoren vor und erwähnt auch den möglichen Schwerpunkt auf der Einbeziehung unkonventioneller Ansichten von Indikatoren und grundlegenden Faktoren in Algorithmen für maschinelles Lernen für zukünftige Forschung.
Nach den Fragen und Antworten stellt der Moderator den nächsten Redner vor: Javier Cervantes, einen Unternehmensanleihenhändler aus Mexiko mit über acht Jahren Erfahrung im Handel und auf den Kreditmärkten. Javier teilt seine Forschung über den Einsatz statistischer Arbitrage zur Vorhersage von Aktientrends auf dem mexikanischen Markt, der durch seine geringe und konzentrierte Marktkapitalisierung gekennzeichnet ist. Er erklärt die Attraktivität dieser Gelegenheit aufgrund des Fehlens dedizierter Fonds, der begrenzten Liquiditätsgenerierung durch die Teilnehmer und der Wettbewerbslandschaft für Arbitrage-Strategien.
Javier erörtert den Prozess des Aufbaus einer Datenbank zum Sammeln von Informationen über mexikanische Aktien und skizziert die aufgetretenen Herausforderungen, wie unvollständige und fehlerhafte Daten, Filter- und Bereinigungsprobleme, sowie die Annahmen, die der Strategie zugrunde liegen. Um diesen Herausforderungen zu begegnen, wurden rund 40 % des Emittentenuniversums entfernt und Aktien mit geringen täglichen Handelsvolumina ausgeschlossen.
Anschließend analysiert der Moderator die Ergebnisse von Javiers statistischer Arbitrage-Strategie, die auf sechs verschiedene Aktienpaare angewendet wurde und zu positiven Ergebnissen führte. Die Renditen der Paare wiesen geringe und überwiegend negative Korrelationen auf, was darauf hindeutet, dass Diversifizierung der Umsetzung der Strategie als Gesamtportfolio erheblich zugute kommen könnte. Bei der Analyse der Ergebnisse eines Portfolios, das alle sechs Paare umfasst, hebt der Moderator eine jährliche Wachstumsrate von 19 %, einen maximalen Drawdown von nur 5 % und eine aggregierte Sharpe Ratio von 2,45 hervor, was eine deutliche Überlegenheit gegenüber einzelnen Paaren zeigt. Darüber hinaus betont der Referent mehrere Risiken, die vor dem Einsatz von echtem Kapital berücksichtigt werden sollten, darunter Handelskosten, unterschiedliche Zeithorizonte, Marktbedingungen und die Notwendigkeit der Implementierung einer Stop-Loss-Strategie.
Der Redner betont, wie wichtig es ist, eine statistische Arbitrage-Strategie regelmäßig zu testen, um ihre Zuverlässigkeit im Laufe der Zeit sicherzustellen, da langfristige Beziehungen zwischen Paaren selbst dann zusammenbrechen können, wenn anfängliche Stationarität beobachtet wird. Sie schlagen die Möglichkeit vor, maschinelle Lernalgorithmen zu verwenden, um geeignete Paare für die Handelsstrategie auszuwählen, anstatt sie manuell auf der Grundlage von Annahmen über verschiedene Marktsektoren auszuwählen. Abschließend erwähnt der Redner, dass noch viel Raum für weitere Forschung besteht, um die Effizienz des Modells zu steigern und die Zuverlässigkeit der Renditen zu verbessern. Während der Frage-und-Antwort-Runde gehen sie auf Fragen zum in den Daten verwendeten Zeitraum, den wichtigsten Erkenntnissen aus negativen Korrelationen zwischen den Paarrenditen und der Machbarkeit der Implementierung einer Intraday-Strategie ein.
Abschließend stellt der Moderator Siddhantu vor, einen Händler, der seine Projekterfahrungen teilt. Siddhantu beginnt mit der Erörterung ihres Hintergrunds als Händler und erzählt von einem Vorfall mit der Aktie einer Medcap-Hotelkette, der sie dazu veranlasste, den Einfluss von Nachrichten und Stimmung auf die Aktienkurse in Frage zu stellen. Sie skizzieren ihr Projekt, das in drei Teile gegliedert ist: Nachrichtenextraktion, Stimmungsanalyse und Handelsstrategie. Aufgrund ihrer Liquidität und Volatilität wurde die Nvidia Corporation als Aktie für das Projekt ausgewählt.
Siddhantu erklärt den Prozess des Sammelns von Nachrichtenartikeln mithilfe der Datenbank newsapi.org und des Extrahierens von Stimmungswerten mithilfe der Zeitungsbibliothek in Python. Die Sentiment-Scores werden dann verwendet, um ein Long- oder Short-Handelsschema basierend auf Extrem-Scores zu erstellen. Der Redner teilt die Herausforderungen mit, denen man während der Programmierphase gegenübersteht, betont jedoch, wie wichtig es ist, die richtigen Tools auszuwählen und Unterstützung von Mentoren zu erhalten, um erfolgreich zu sein. Obwohl die Ergebnisse ermutigend sind, betont der Redner die Notwendigkeit, Backtests mit Vorsicht anzugehen, und erkennt Raum für Verbesserungen in jedem Schritt des Projekts an. Sie empfehlen das Vader-Sentiment-Analysator-Tool in Python wegen seiner Genauigkeit bei der Generierung von Sentiment-Scores.
Der Redner geht auf die Stimmungsanalyse und ihre Grenzen bei der Anwendung auf Nachrichtenartikel ein. Sie weisen darauf hin, dass die Stimmungsanalyse zwar effektiv sein kann, um die Stimmung in Tweets und Social-Media-Kommentaren zu erkennen, sie jedoch möglicherweise nicht für Nachrichtenartikel geeignet ist, da es Unterschiede bei der Berichterstattung über negative Ereignisse gibt. Sie beantworten auch Fragen des Publikums zu den Quellen, die für die Stimmungsanalyse verwendet werden, zum Prozess der Umwandlung von Vader-Scores in Handelssignale, zur Nutzung von Deep Learning in der Stimmungsanalyse (die sie noch nicht erforscht haben, deren Potenzial sie jedoch erkennen) und zu anderen verwandten Themen .
Abschließend geht der Referent auf die Daten ein, die für das Backtesting im Sentiment-Analyseprogramm verwendet werden. Sie erklären, dass täglich etwa 10 bis 15 wirkungsvolle Nachrichtenartikel gesammelt wurden, um einen durchschnittlichen Sentiment-Score für jeden Tag zu berechnen. Das Programm nutzte diese Artikel im Wert von etwa sechs Monaten. Für die Aktienrenditen wurden Tagesdaten für die Nvidia-Aktie über sechs Monate hinweg berücksichtigt. Der Redner stellt klar, dass bei den Trades oder dem Backtesting keine fundamentalen oder technischen Aspekte der Aktie berücksichtigt wurden, sondern dass die Handelssignale ausschließlich aus dem Sentiment-Score abgeleitet wurden.
Quant-Trading | Strategien erklärt von Michael Harris
Quant-Trading | Strategien erklärt von Michael Harris
In diesem Tutorial werden die Konzepte der Marktkomplexität und -reflexivität eingeführt und diskutiert. Der Schwerpunkt liegt auf spezifischen Regimewechseln, die an den US-Aktienmärkten und anderen Märkten stattgefunden haben. Der Moderator, Michael Harris, untersucht, wie sich diese Regimeänderungen auf die Strategieentwicklung auswirken können, und gibt Einblicke in die Minimierung ihrer Auswirkungen durch Anpassung des Daten- und Strategiemixes.
Das Tutorial ist praxisorientiert konzipiert und ermöglicht es den Teilnehmern, die Analyse auf ihren eigenen Systemen zu reproduzieren. Amibroker wird während des Webinars für die Analyse verwendet und die Teilnehmer können den Python-Code herunterladen, um ihn nach der Sitzung weiter zu üben.
Michael stellt außerdem einen neu entwickelten Indikator vor, der die dynamischen Zustandsänderungen von Momentum und Mean-Reversion im Markt misst. Der Code für diesen Indikator wird bereitgestellt, sodass die Teilnehmer ihn in ihre eigenen Handelsstrategien integrieren können.
Michael Harris, der Redner, verfügt über 30 Jahre Erfahrung im Handel mit Rohstoff- und Währungs-Futures. Er ist Autor mehrerer Bücher zum Thema Handel, darunter „Short-Term Trading with Price Patterns“, „Stock Trading Techniques Based on Price Patterns“, „Profitability and Systematic Trading“ und „Fooled by Technical Analysis: The Perils of Charting“. Backtesting und Data-Mining.“ Er ist außerdem Autor des Price Action Lab Blogs und Entwickler der DLPAL-Software. Michael verfügt über zwei Master-Abschlüsse, einen in Maschinenbau mit Schwerpunkt auf Steuerungssystemen und Optimierung und einen in Operations Research mit Schwerpunkt auf Prognosen und Finanztechnik von der Columbia University.
Das Tutorial ist in Kapitel unterteilt, die verschiedene Aspekte der Marktkomplexität und Regimeänderungen abdecken. Die Einführung des Referenten bereitet den Rahmen für das Tutorial, gefolgt von einem Überblick über die zu behandelnden Themen. Die Indexhandelsstrategie wird erläutert und ihre Grenzen in einem quantitativen Anspruch hervorgehoben. Anschließend wird die Mean-Reversion-Strategie diskutiert, die zu einer tiefergehenden Untersuchung von Regimewechseln und deren Entstehung führt. Die Dynamik der Mean-Reversion im S&P-Markt wird analysiert, wobei die Komplexität der Finanzmärkte hervorgehoben wird.
Die negativen Auswirkungen der Marktkomplexität werden angesprochen und die Herausforderungen hervorgehoben, die sie für Händler mit sich bringt. Das Tutorial endet mit einer Diskussion über zusätzliche Komplexitäten auf den Finanzmärkten und bietet Ressourcen für die weitere Erkundung. Anschließend findet eine Frage-und-Antwort-Runde statt, in der die Teilnehmer etwaige Zweifel klären oder weitere Erkenntnisse einholen können.
Dieses Tutorial bietet wertvolle Einblicke in die Marktkomplexität, Regimeänderungen und deren Auswirkungen auf Handelsstrategien, präsentiert von einem erfahrenen Händler und Autor auf diesem Gebiet.
Kapitel:
00:00 – Einführung des Sprechers
02:23 – Übersicht über das Tutorial
03:54 – Indexhandelsstrategie erklärt
07:30 – Einschränkungen des quantitativen Anspruchs
10:45 – Mean-Reversion-Strategie
11:38 – Regimewechsel
16:30 – Wie es passiert
18:17 – S&P Mean-Reversion-Dynamik
24:35 – Komplexität auf den Finanzmärkten
26:42 – Nebenwirkungen
36:56 – Mehr Komplexität auf den Finanzmärkten
42:17 – Ressourcen
43:35 – Fragen und Antworten
Algorithmischer Handel | Vollständiges Tutorial | Ideen für lebendige Märkte | Dr. Hui Liu und Aditya Gupta
Algorithmischer Handel | Vollständiges Tutorial | Ideen für lebendige Märkte | Dr. Hui Liu und Aditya Gupta
In diesem Video gibt der Redner einen umfassenden Überblick über die Meisterklasse zum Thema Ideenfindung, Erstellung und Umsetzung einer automatisierten Handelsstrategie. Der Redner, Aditya Gupta, stellt Dr. Hui Liu vor, einen Hedgefonds-Gründer und Autor eines Python-Pakets, das mit der Interactive Brokers API interagiert. Er erwähnt auch eine überraschende Entwicklung im Zusammenhang mit der API, die Dr. Liu besprechen wird.
Das Video beginnt mit der Erläuterung der Definition des automatisierten Handels und der Hervorhebung der drei Hauptschritte des algorithmischen Handels. Der Redner berichtet über seinen persönlichen Weg des Übergangs vom diskretionären zum systematischen Handel mithilfe technischer Analysen.
Die Bedeutung der Analyse im algorithmischen Handel wird hervorgehoben, wobei der Schwerpunkt auf drei Arten der Analyse liegt: quantitative, technische und fundamentale. Die verschiedenen Aspekte der Analyse umfassen das Studium historischer Diagramme, Finanzberichte, mikro- und makroökonomischer Faktoren sowie die Verwendung mathematischer Modelle und statistischer Analysen zur Entwicklung von Handelsstrategien. Bei diesen Strategien handelt es sich im Wesentlichen um Algorithmen, die Daten verarbeiten und Signale für den Kauf und Verkauf generieren. Der Prozess umfasst Strategieentwicklung, Tests und Papierhandel, bevor mit dem Live-Handel fortgefahren wird. Um eine Verbindung zum Live-Handel herzustellen, sind eine Broker-Konnektivität und eine API erforderlich, wobei iBridge PI als mögliche Lösung diskutiert wird. Außerdem wird das Konzept des Strategiespektrums vorgestellt und verschiedene Gewinntreiber und Analysearten vorgestellt.
Die Referenten befassen sich mit der quantitativen Analyse und ihrer Rolle bei der Entwicklung von Handelsstrategien und dem Portfoliomanagement. Sie erklären, dass bei der quantitativen Analyse mathematische Modelle und statistische Analysen zum Einsatz kommen, um aus historischen Daten Erkenntnisse zu gewinnen, die zur Entwicklung quantitativer Handelsstrategien genutzt werden können. Quantitative Analysen sind besonders nützlich für das Risikomanagement und die Berechnung von Take-Profit- und Stop-Loss-Werten für eine Strategie. Anschließend demonstrieren sie den Prozess der Erstellung einer einfachen Crossover-Strategie mit gleitendem Durchschnitt unter Verwendung von Bibliotheken wie Pandas, Numpy und Matplotlib und der Berechnung der Rendite der Strategie.
Es werden verschiedene Leistungsmetriken besprochen, die im algorithmischen Handel verwendet werden, wie z. B. die Sharpe-Ratio, die durchschnittliche jährliche Wachstumsrate (CAGR) und der maximale Drawdown. Es wird betont, wie wichtig es ist, Backtesting-Verzerrungen und häufige Fehler im Prozess zu vermeiden. Die Referenten erläutern außerdem die für die quantitative Analyse erforderlichen Fähigkeiten, darunter Kenntnisse in Mathematik und Statistik, Interesse am Umgang mit Daten, Kenntnisse in der Python-Codierung und ein Verständnis für Finanzen. Sie beschreiben den Prozess der automatisierten Erstellung von Handelsstrategien, angefangen von Datenquellen und Analysen bis hin zur Signalausführung, und verknüpfen ihn mit der Anwendungsprogrammierschnittstelle (API). Dr. Hui Liu stellt sich vor, gibt einen kurzen Hintergrund und einen Überblick über die kommenden Themen zum algorithmischen Handel mit TD Ameritrade und Interactive Brokers unter Verwendung von Python.
Anschließend konzentriert sich der Redner auf die drei Eckpfeiler des algorithmischen Handels mithilfe der iBridgePy-Plattform: Preisanzeige in Echtzeit, Abruf historischer Daten und Auftragserteilung. Diese drei Eckpfeiler dienen als Bausteine für die Entwicklung komplexer Strategien. Der Redner stellt drei Beispielstrategien vor: Portfolio-Neuausrichtung, eine Buy-Low- und Sell-High-Strategie sowie eine Trend-Catching-Strategie mit gleitenden Durchschnitten. Die Vorteile des algorithmischen Handels, wie etwa geringerer Druck und weniger menschliche Fehler, werden hervorgehoben. Der Redner empfiehlt, Zeit in die Recherche guter Strategien zu investieren, anstatt übermäßigen Aufwand in die Programmierung zu stecken und eine Handelsplattform wie iBridgePy zu nutzen. Hervorgehoben wird auch die Flexibilität, innerhalb der iBridgePy-Plattform nahtlos zwischen Backtesting und Live-Handel zu wechseln.
Im Video werden dann verschiedene Broker und Python-Plattformoptionen besprochen, die für den algorithmischen Handel verfügbar sind. TD Ameritrade wird als in den USA ansässiges Maklerunternehmen vorgestellt, das eine elektronische Handelsplattform ohne Provisionshandel anbietet. Interactive Brokers gilt als führender Anbieter von API-Lösungen, die häufig von kleineren und mittleren Hedgefonds zur Handelsautomatisierung eingesetzt werden. Robinhood, ein weiteres in den USA ansässiges Brokerunternehmen, wird für seine provisionsfreien Handels- und Algo-Handelsfunktionen erwähnt. Die Vorteile der Nutzung der Python-Handelsplattform iBridgePy werden untersucht, darunter der Schutz des geistigen Eigentums der Händler, die Unterstützung für gleichzeitiges Backtesting und Live-Handel sowie die Kompatibilität mit verschiedenen Paketoptionen. iBridgePy erleichtert außerdem den Handel mit verschiedenen Brokern und die Verwaltung mehrerer Konten.
Die Referenten diskutieren den Bedarf an effektiven Tools für Hedgefonds-Manager, um mehrere Konten gleichzeitig zu verwalten, und stellen die hybride Handelsplattform namens Average Pi vor. Average Pi wird als Kombination aus Contopian und Quantopian beschrieben und ermöglicht die Steuerung von Algorithmen und Python-basierten Handel. Der Prozess des Herunterladens und Einrichtens von Average Pi auf einem Windows-System wird demonstriert, einschließlich der Konfiguration der Handelsplattform von Interactive Brokers über Integrity Broker. Die Haupteingangsdatei des Pakets, runme.py, wird angezeigt und erfordert nur zwei Änderungen: den Kontocode und die ausgewählte Strategie zur Ausführung.
Dr. Hui Liu und Aditya Gupta bieten ein Tutorial zum algorithmischen Handel und zeigen anhand eines Beispiels, wie ein Konto angezeigt wird. Sie erläutern die Verwendung der Funktionen zum Initialisieren und Bearbeiten von Daten in Average Pi, das verschiedene Funktionen bietet, die speziell für den algorithmischen Handel entwickelt wurden. Sie veranschaulichen, wie einfach es ist, mit der Average Pi-Plattform zu programmieren.
Der Referent befasst sich mit zwei Themen: der Anzeige von Echtzeitpreisen und dem Abruf historischer Daten. Für Echtzeitpreise wird eine Demo vorgestellt, in der der Code so strukturiert ist, dass er mithilfe der Handle-Data-Funktion jede Sekunde den Zeitstempel und den Briefkurs ausgibt. Um historische Daten für Forschungszwecke abzurufen, erklärt der Referent die Funktion „Historische Daten anfordern“ und zeigt, wie sie zum Abrufen eines Pandas-Datenrahmens verwendet werden kann, der historische Daten enthält, einschließlich Eröffnungs-, Höchst-, Tiefst-, Schluss- und Volumendaten. Die Codestruktur wird untersucht und eine Demo gezeigt, in der der Code aktualisiert wird, um historische Daten abzurufen und die Ausgabe in der Konsole zu drucken.
Der Redner zeigt, wie man eine Limitorder zum Kauf von 100 SPY-Aktien zu 99,95 $ aufgibt, wenn der Briefkurs in iBridgePy 100,01 $ übersteigt. Die zu handelnden Kontrakt- und Aktienmengen werden definiert und die „Order“-Funktion wird genutzt, um die Limit-Order aufzugeben. Der Referent demonstriert außerdem die Platzierung einer Order zum Marktpreis mithilfe der Funktion „Order Status Monitor“, um den Status der Order zu verfolgen. Nachdem er diese grundlegenden Schritte vorgestellt hat, erklärt der Redner, dass die nächste Phase darin besteht, die zu handelnden Kontrakte und die Häufigkeit von Handelsentscheidungen zu bestimmen, um Handelsstrategien zu entwickeln.
Die Schritte zur Umsetzung einer algorithmischen Handelsstrategie werden besprochen. Die Notwendigkeit, regelmäßig Daten zu verwalten und Aufgaben mithilfe von Funktionen wie der Zeitplanfunktion zu planen, wird erläutert. Der Prozess der Berechnung technischer Indikatoren wird untersucht. Dabei werden historische Daten von einem Broker angefordert und die Datenrahmenfunktionen von Pandas für Berechnungen genutzt. Es werden Auftragsarten wie Market Orders und Limit Orders untersucht und die Einbindung von Stop Orders in den Code oder die Algorithmen kurz erwähnt.
Anschließend erläutert der Redner eine Demonstrationsstrategie zur Neuausrichtung eines Portfolios auf der Grundlage von Handelsanweisungen, einem bei Fondsmanagern beliebten Ansatz. Die manuelle Ausführung von Handelsanweisungen mithilfe von Python-Wörterbüchern wird demonstriert und ein einfacher Code vorgestellt, der täglich eine Handelsentscheidung plant und das Konto mithilfe von Orderzielprozentsätzen automatisch neu ausgleicht. Es wird eine Live-Demo bereitgestellt, um den Prozess der Neuausrichtung eines Kontos und die Anzeige seiner Position zu demonstrieren.
Es werden drei verschiedene Handelsstrategien beschrieben, die mit Python umgesetzt werden können. Die erste ist eine einfache Rebalancing-Strategie, die es Benutzern ermöglicht, ihre Position, Aktien und Kostenbasis zu überwachen. Bei der zweiten handelt es sich um eine Mean-Reversion-Strategie, die dazu dient, Handelsmöglichkeiten zu identifizieren, wenn der Schlusskurs niedriger ist als der Preis des Vortages. Abschließend wird eine Crossover-Strategie mit gleitendem Durchschnitt besprochen, die sich auf die Verwendung historischer Daten zur Berechnung des Crossover-Punkts für potenzielle Kauf- und Verkaufschancen konzentriert. Bei allen drei Strategien geht es darum, Handelsentscheidungen zu treffen, bevor der Markt zu bestimmten Zeiten schließt, und Marktaufträge zur Ausführung von Geschäften zu verwenden. Der Code zur Implementierung aller Strategien ist unkompliziert und lässt sich mithilfe von Python- und Planungsfunktionen einfach implementieren.
Dr. Hui Liu und Aditya Gupta erklären, wie man gleitende Durchschnitte verwendet, um zu bestimmen, wann Aktien in einem Portfolio gekauft oder verkauft werden sollten. Sie demonstrieren die Umsetzung dieser Strategie mithilfe der Average Pi-Plattform und führen anschließend einen Backtest durch, indem sie historische Daten anwenden, um ihre Leistung zu bewerten. Das Tutorial behandelt die Verwendung der Test Me Py-Funktion in Hybrid Pi, um historische Daten für die Simulation einzugeben und Ergebnisse für Kontostand und Transaktionsdetails zu erhalten.
Der Referent erklärt, wie man die Simulationsergebnisse einer algorithmischen Handelsstrategie durch Zugriff auf das Leistungsanalysediagramm einsehen kann. Dieses Diagramm zeigt das Bilanzprotokoll und verschiedene Statistiken wie Sharpe Ratio, Mittelwert und Standardabweichung an, die weiter angepasst werden können. Der Redner betont, dass Average Pi in der Lage ist, mehrere Konten zu verwalten und diese neu auszugleichen. Die Plattform ist flexibel, benutzerfreundlich und kann zum Einrichten einer algorithmischen Handelsplattform, zum Backtesting, zum Live-Handel, zum Handel mit verschiedenen Brokern und zur Verwaltung mehrerer Konten verwendet werden. Darüber hinaus lädt der Redner die Zuschauer ein, ihren Leih-A-Coder-Service für Codierungsunterstützung zu erkunden und ihren YouTube-Kanal für kostenlose Tutorials zu abonnieren.
Die Referenten diskutieren, wie iBridge von Interactive Brokers für den Handel mit Futures und Optionen sowie anderen Vertragsarten genutzt werden kann. Sie erklären, dass die Supersymbol-Funktion die Definition verschiedener Arten von Verträgen ermöglicht, wie z. B. Aktienoptionen, Filter, Indizes, Devisen und mehr. Als Beispiel wird ein strukturiertes Produkt angeführt, das an der Börse in Hongkong gehandelt wird und bei dem es sich nicht um eine Aktie handelt. Die Supersymbol-Funktion ermöglicht den Handel mit allen Vertragstypen außer Aktien. Stop-Losses werden kurz erwähnt und hervorgehoben, wie sie in den Code integriert oder in einen Algorithmus eingebaut werden können.
Die Referenten setzen die Diskussion fort, indem sie die Bedeutung des Risikomanagements im algorithmischen Handel hervorheben. Sie betonen die Notwendigkeit der Implementierung von Stop-Losses als Risikominderungsstrategie, um potenzielle Verluste im Falle ungünstiger Marktbewegungen zu begrenzen. Stop-Losses können in den Code oder Algorithmus integriert werden, um automatisch den Verkauf eines Wertpapiers auszulösen, wenn es ein vorgegebenes Preisniveau erreicht.
Als nächstes befassen sie sich mit dem Konzept der Positionsgröße, bei der die angemessene Menge an Aktien oder Kontrakten für den Handel auf der Grundlage des verfügbaren Kapitals und der Risikotoleranz bestimmt wird. Die richtige Positionsgröße hilft, Risiken zu verwalten und Erträge zu optimieren, indem sichergestellt wird, dass die Kapitalallokation mit der Risikomanagementstrategie des Händlers übereinstimmt.
Die Referenten gehen auch auf die Bedeutung der Leistungsbewertung und -überwachung im algorithmischen Handel ein. Sie diskutieren verschiedene Leistungskennzahlen, die zur Beurteilung der Wirksamkeit von Handelsstrategien verwendet werden, darunter die Sharpe-Ratio, die durchschnittliche jährliche Wachstumsrate (Compounded Annual Growth Rate, CAGR) und den maximalen Drawdown. Diese Kennzahlen bieten Einblicke in die risikobereinigten Renditen, das langfristige Wachstum und die potenziellen Abwärtsrisiken, die mit der Strategie verbunden sind.
Um häufige Fallstricke und Verzerrungen beim Backtesting zu vermeiden, betonen die Referenten, wie wichtig es ist, die Datenintegrität sicherzustellen und Out-of-Sample-Tests zu verwenden. Sie warnen vor einer Überoptimierung oder „Kurvenanpassung“, bei der eine Strategie zu sehr auf historische Daten zugeschnitten wird, was aufgrund der mangelnden Anpassungsfähigkeit der Strategie an sich ändernde Marktbedingungen zu einer schlechten Leistung im Live-Handel führt.
Die Referenten betonen, dass erfolgreicher algorithmischer Handel eine Kombination aus Fähigkeiten und Wissen erfordert. Sie erwähnen die Notwendigkeit einer soliden Grundlage in Mathematik und Statistik, Interesse an der Arbeit mit Daten, Kenntnisse im Programmieren mit Python und ein gutes Verständnis der Finanzmärkte. Sie ermutigen Personen, die sich für den algorithmischen Handel interessieren, ihr Wissen und ihre Fähigkeiten durch Lernressourcen und praktische Anwendung kontinuierlich zu erweitern.
Im abschließenden Abschnitt des Videos stellt sich Dr. Hui Liu vor und teilt seinen Hintergrund als Hedgefonds-Gründer und Autor eines Python-Pakets, das mit der Interactive Brokers API interagiert. Er geht kurz auf kommende Themen im Zusammenhang mit dem algorithmischen Handel mit TD Ameritrade und Interactive Brokers unter Verwendung von Python ein und bereitet so den Weg für die weitere Erforschung dieser Themen in zukünftigen Meisterkursen.
Das Video bietet einen umfassenden Überblick über den algorithmischen Handel und deckt den Weg von der Idee bis zur Umsetzung automatisierter Handelsstrategien ab. Es unterstreicht die Bedeutung der Analyse, erörtert verschiedene Arten der Analyse (quantitativ, technisch und grundlegend) und untersucht verschiedene Aspekte der Strategieentwicklung, des Testens und der Umsetzung. Die Referenten demonstrieren die praktische Anwendung von Python-basierten Plattformen wie iBridgePy und Average Pi und demonstrieren ihre Fähigkeiten in der Echtzeit-Preisverfolgung, dem Abruf historischer Daten, der Auftragserteilung und der Neuausrichtung des Portfolios.
Langfristige Unternehmensbewertungsvorhersage von Prof. S. Chandrasekhar | Forschungspräsentation
Langfristige Unternehmensbewertungsvorhersage von Prof. S. Chandrasekhar | Forschungspräsentation
Professor S. Chandrasekhar ist Seniorprofessor und Direktor für Business Analytics an der IFIM Business School in Bangalore. Mit über 20 Jahren Erfahrung im akademischen Bereich hatte er Positionen wie den Lehrstuhlinhaber und Direktor an der FORE School of Management in Neu-Delhi und den Professor am Indian Institute of Management in Lucknow inne. Er hat einen Bachelor-Abschluss in Elektrotechnik, einen Master-Abschluss in Informatik vom IIT Kanpur und einen Doktortitel in Quantitative & Information Systems von der University of Georgia, USA.
In dieser Präsentation konzentriert sich Professor S. Chandrasekhar auf die Vorhersage des langfristigen Unternehmenswerts (EV) eines Unternehmens mithilfe fortschrittlicher Techniken des maschinellen Lernens und der Verarbeitung natürlicher Sprache. Im Gegensatz zur Marktkapitalisierung, die in erster Linie den Shareholder Value berücksichtigt, bietet Enterprise Value eine umfassendere Bewertung eines Unternehmens durch die Einbeziehung von Faktoren wie langfristigen Schulden und Barreserven.
Zur Berechnung des EV wird die Marktkapitalisierung angepasst, indem die langfristigen Schulden addiert und die Barreserven abgezogen werden. Durch die fortlaufende Vorhersage des Unternehmenswerts bis zu sechs Monate im Voraus kann dieser Ansatz Investoren und Ratingunternehmen dabei helfen, eine langfristige Perspektive auf das Investitionswachstum und die Bewältigung der damit verbundenen Risiken zu gewinnen.
Kreditrisikomodellierung von Dr. Xiao Qiao | Forschungspräsentation
Kreditrisikomodellierung von Dr. Xiao Qiao | Forschungspräsentation
Guten Morgen guten Nachmittag guten Abend. Mein Name ist Vedant und ich komme aus Quantum C. Heute habe ich das Vergnügen, Ihr Gastgeber für diese Veranstaltung zu sein. Zu uns gesellt sich Dr. Xiao, ein Mitbegründer von Parachronic Technologies, der sein Fachwissen zur Kreditrisikomodellierung mithilfe von Deep Learning weitergeben wird. Die Forschungsinteressen von Dr. Xiao konzentrieren sich hauptsächlich auf die Preisgestaltung von Vermögenswerten, die Finanzökonometrie und Investitionen. Für seine Arbeit wurde er von renommierten Institutionen wie Forbes, CFA Institute und Institutional Investors ausgezeichnet. Darüber hinaus ist Dr. Xiao Mitglied der Redaktion des Journal of Portfolio Management und des Global Commodities Applied Research Digest. Er hat einen Doktortitel in Finanzwesen von der University of Chicago.
Während dieser Sitzung wird sich Dr. Xiao mit dem Thema Kreditrisikomodellierung befassen und die Anwendungen von Deep Learning in diesem Bereich erkunden. Er wird erörtern, wie Deep Learning genutzt werden kann, um komplexe Kreditrisikomodelle zu bewerten und zu kalibrieren, wobei er sich insbesondere auf seine Wirksamkeit in Fällen konzentriert, in denen geschlossene Lösungen nicht verfügbar sind. Deep Learning bietet in solchen Szenarien eine konzeptionell einfache und effiziente Alternativlösung. Dr. Xiao bedankt sich für die Teilnahme am 10-jährigen Jubiläum des Quan Institute und freut sich, seine Erkenntnisse weiterzugeben.
In Zukunft wird sich die Diskussion auf den Kreditmarkt konzentrieren, insbesondere auf die enorme Größe des Marktes und die zunehmende Bedeutung von Credit Default Swaps (CDS). Mit einem geschätzten ausstehenden CDS-Nominalwert von rund 8 Billionen im Jahr 2019 ist der Markt stetig gewachsen. Auch der CDS-Index-Nominalwert verzeichnete ein erhebliches Wachstum und erreichte in den letzten Jahren fast 6 Billionen. Darüber hinaus übersteigt der globale Anleihenmarkt die unglaubliche Größe von 100 Billionen Dollar, wobei ein erheblicher Teil aus Unternehmensanleihen besteht, die aufgrund des möglichen Ausfalls der emittierenden Institutionen ein inhärentes Kreditrisiko bergen.
Da sich die Kreditmärkte weiterentwickeln und immer komplexer werden, sind auch Kreditrisikomodelle immer komplexer geworden, um die dynamische Natur des Ausfallrisikos zu erfassen. Diese Modelle verwenden häufig stochastische Zustandsvariablen, um die Zufälligkeit auf den Finanzmärkten über verschiedene Zeiträume und Laufzeiten hinweg zu berücksichtigen. Allerdings hat die zunehmende Komplexität dieser Modelle ihre Schätzung und Lösung rechenintensiv gemacht. Dieses Thema wird im weiteren Verlauf der Präsentation einen Schwerpunkt bilden.
Maschinelles Lernen hat in den letzten Jahren mit seinen transformativen Auswirkungen auf verschiedene Bereiche, einschließlich des Finanzwesens, an Bedeutung gewonnen. Es wird zunehmend in der empirischen Finanzierung eingesetzt, beispielsweise bei der sektorübergreifenden Preisgestaltung von Vermögenswerten und beim Aufbau von Aktienportfolios. Insbesondere wurde Deep Learning verwendet, um die Preisgestaltung von Derivaten und Optionen anzunähern und stochastische Volatilitätsmodelle zu kalibrieren. In diesem Artikel schlagen Dr. Xiao und sein Kollege Gerardo Munzo von Kempos Capital die Anwendung von Deep Learning auf die Kreditrisikomodellierung vor. Ihre Forschung zeigt, dass Deep Learning komplexe Kreditrisikomodelllösungen effektiv ersetzen kann, was zu einer effizienten und genauen Berechnung der Credit Spreads führt.
Um einen weiteren Kontext bereitzustellen, stellt Dr. Xiao das Konzept der Kreditrisikomodellierung vor. Er erklärt, dass der Preis einer ausfallgefährdeten Anleihe durch den wahrscheinlichkeitsgewichteten Durchschnitt der diskontierten Cashflows sowohl im Ausfall- als auch im Nicht-Ausfallszenario bestimmt wird. Die Ausfallwahrscheinlichkeit ist eine entscheidende Größe in Kreditrisikomodellen, da sie die Ausfallwahrscheinlichkeit quantifiziert. Es gibt zwei Haupttypen von Kreditrisikomodellen: Strukturmodelle und Modelle in reduzierter Form. Strukturmodelle stellen einen direkten Zusammenhang zwischen Ausfallereignissen und der Kapitalstruktur eines Unternehmens her. Andererseits stellen Modelle in reduzierter Form das Ausfallrisiko als statistischen Prozess dar und nutzen typischerweise einen Poisson-Prozess mit einem Standardintensitätsparameter. Dr. Xiao betont, dass Kreditrisikomodelle die Lösung von Preisfunktionen zur Ableitung von Kreditspannen beinhalten, was aufgrund der Notwendigkeit numerischer Integration und Rastersuchen rechenintensiv sein kann.
Hier kommt Deep Learning ins Spiel. Dr. Xiao erläutert anschließend neuronale Netze und Deep Learning und veranschaulicht, wie sie auf die Kreditrisikomodellierung angewendet werden können. Neuronale Netze führen Nichtlinearität ein.
Neuronale Netze, ein grundlegender Bestandteil des Deep Learning, bestehen aus miteinander verbundenen Schichten künstlicher Neuronen, die die Struktur des menschlichen Gehirns nachahmen. Diese Netzwerke können durch einen als Training bezeichneten Prozess komplexe Muster und Beziehungen aus Daten lernen. Während des Trainings passt das Netzwerk seine internen Parameter an, um die Differenz zwischen vorhergesagten und tatsächlichen Ausgaben zu minimieren und so seine Leistung zu optimieren.
Dr. Xiao erklärt, dass Deep Learning genutzt werden kann, um komplexe Kreditrisikomodelle anzunähern, indem neuronale Netze anhand historischer Daten trainiert werden. Das neuronale Netzwerk lernt die Zuordnung zwischen Eingangsvariablen, wie zum Beispiel wirtschaftlichen und finanziellen Faktoren, und den entsprechenden Kreditspannen. Nach dem Training kann das Netzwerk zur effizienten Schätzung der Kreditspannen für neue Eingabedaten verwendet werden.
Einer der Hauptvorteile des Einsatzes von Deep Learning bei der Kreditrisikomodellierung ist seine Fähigkeit, komplexe Preisfunktionen zu approximieren. Traditionell nutzen Kreditrisikomodelle numerische Integrationstechniken und Rastersuchen zur Lösung von Preisfunktionen, was rechenintensiv und zeitaufwändig sein kann. Deep Learning bietet eine effizientere Alternative, indem es die Preisfunktion durch die erlernte Zuordnung des neuronalen Netzwerks direkt annähert.
Dr. Xiao betont, dass Deep-Learning-Modelle nichtlineare Beziehungen und Wechselwirkungen zwischen Eingabevariablen erfassen können, die häufig in Kreditrisikomodellen vorhanden sind. Diese Flexibilität ermöglicht es dem neuronalen Netzwerk, sich an die Komplexität der Kreditmärkte anzupassen und genaue Credit-Spread-Schätzungen zu erstellen.
Darüber hinaus können Deep-Learning-Modelle im Vergleich zu herkömmlichen Methoden effektiver mit fehlenden oder unvollständigen Daten umgehen. Sie sind in der Lage, aus verfügbaren Daten zu lernen und vernünftige Vorhersagen zu treffen, selbst wenn Informationen fehlen. Dies ist insbesondere bei der Kreditrisikomodellierung von Vorteil, wo die Daten spärlich sein oder Lücken aufweisen können.
Um die Wirksamkeit von Deep Learning bei der Kreditrisikomodellierung zu validieren, führten Dr. Xiao und sein Kollege umfangreiche empirische Experimente mit einem großen Datensatz von Unternehmensanleihen durch. Sie verglichen die Leistung von Deep-Learning-basierten Credit-Spread-Schätzungen mit denen traditioneller Kreditrisikomodelle. Die Ergebnisse zeigten, dass Deep-Learning-Modelle herkömmliche Modelle in Bezug auf Genauigkeit und Recheneffizienz durchweg übertrafen.
Dr. Xiao schließt seinen Vortrag mit der Betonung des transformativen Potenzials von Deep Learning in der Kreditrisikomodellierung. Er hebt die Effizienz, Genauigkeit und Flexibilität von Deep-Learning-Modellen bei der Approximation komplexer Kreditrisikomodelle hervor, insbesondere in Fällen, in denen geschlossene Lösungen nicht verfügbar oder rechenintensiv sind.
Im Anschluss an den Vortrag steht der Saal für Fragen des Publikums offen. Teilnehmer können sich über spezifische Anwendungen von Deep Learning in der Kreditrisikomodellierung, Datenanforderungen, Modellinterpretierbarkeit und anderen relevanten Themen erkundigen. Dr. Xiao begrüßt die Gelegenheit, mit dem Publikum in Kontakt zu treten und weitere Einblicke auf der Grundlage seines Fachwissens und seiner Forschungsergebnisse zu geben.
Frage-und-Antwort-Runde nach Dr. Xiaos Präsentation:
Zuhörer 1: „Vielen Dank für die informative Präsentation, Dr. Xiao. Ich bin gespannt auf die Interpretierbarkeit von Deep-Learning-Modellen bei der Kreditrisikomodellierung. Traditionelle Modelle bieten oft Transparenz über die Faktoren, die Credit-Spread-Schätzungen beeinflussen. Wie funktionieren Deep-Learning-Modelle?“ Interpretierbarkeit handhaben?“
Dr. Xiao: „Das ist eine ausgezeichnete Frage. Die Interpretation von Deep-Learning-Modellen kann aufgrund ihrer inhärenten Komplexität eine Herausforderung sein. Tiefe neuronale Netze fungieren als Black Boxes, was es schwierig macht, die internen Abläufe direkt zu verstehen und die Aktivierung einzelner Neuronen zu interpretieren. Allerdings gibt es solche waren laufende Forschungsanstrengungen, um die Interpretierbarkeit beim Deep Learning zu verbessern.“
„Techniken wie die Feature-Wichtigkeitsanalyse, Gradienten-basierte Methoden und Aufmerksamkeitsmechanismen können dabei helfen, Licht auf die Faktoren zu werfen, die die Vorhersagen des Modells beeinflussen. Indem wir die Reaktion des Netzwerks auf verschiedene Eingabevariablen untersuchen, können wir Erkenntnisse über deren relative Bedeutung bei der Bestimmung der Kredit-Spreads gewinnen.“ ."
„Darüber hinaus können modellagnostische Interpretierbarkeitsmethoden wie LIME (Local Interpretable Model-Agnostic Explanations) oder SHAP (SHapley Additive exPlanations) auf Deep-Learning-Modelle angewendet werden. Diese Methoden liefern Erklärungen für einzelne Vorhersagen, indem sie das Modell lokal um a annähern spezifische Eingabe.“
„Es ist wichtig zu beachten, dass diese Techniken zwar ein gewisses Maß an Interpretierbarkeit bieten, die Hauptstärke von Deep-Learning-Modellen jedoch in ihrer Fähigkeit liegt, komplexe Muster und Beziehungen in den Daten zu erfassen. Der Kompromiss zwischen Interpretierbarkeit und Modellleistung ist ein Faktor bei der Kreditwürdigkeit.“ Risikomodellierung, und Forscher suchen aktiv nach Wegen, um ein Gleichgewicht zwischen beiden zu finden.
Zuhörer 2: „Vielen Dank für die Einblicke, Dr. Xiao. Ich bin neugierig auf die Datenanforderungen für das Training von Deep-Learning-Modellen in der Kreditrisikomodellierung. Könnten Sie die Menge und Qualität der benötigten Daten näher erläutern?“
Dr. Xiao: „Sicherlich. Deep-Learning-Modelle profitieren in der Regel von großen Datenmengen für ein effektives Training. Bei der Kreditrisikomodellierung ist ein vielfältiger und umfassender Datensatz von entscheidender Bedeutung, um die Komplexität der Kreditmärkte zu erfassen.“
„Daten für das Training von Deep-Learning-Modellen sollten eine Vielzahl wirtschaftlicher und finanzieller Indikatoren umfassen, wie etwa makroökonomische Faktoren, branchenspezifische Variablen, historische Kredit-Spreads und relevante Marktdaten. Je vielfältiger und repräsentativer der Datensatz, desto besser lässt sich das Modell verallgemeinern.“ auf neue Kreditrisikoszenarien.“
„Im Hinblick auf die Datenqualität ist es wichtig, die Genauigkeit, Konsistenz und Relevanz der Eingabevariablen sicherzustellen. Datenvorverarbeitungstechniken wie Datenbereinigung, Normalisierung und Feature-Engineering spielen eine entscheidende Rolle bei der Vorbereitung des Datensatzes für das Training. Das Entfernen von Ausreißern, Die Behebung fehlender Werte und die entsprechende Skalierung der Daten sind entscheidende Schritte zur Gewährleistung einer zuverlässigen Modellleistung.“
„Darüber hinaus ist die Aufrechterhaltung aktueller Daten von entscheidender Bedeutung, da sich Kreditrisikomodelle an veränderte Marktbedingungen anpassen müssen. Regelmäßige Aktualisierungen und die Überwachung der Datenqualität und -relevanz sind notwendig, um die fortlaufende Genauigkeit der Deep-Learning-Modelle sicherzustellen.“
Dies waren nur einige Fragen des Publikums, aber die Frage-und-Antwort-Runde wird mit verschiedenen anderen Anfragen und Diskussionen zu Themen wie Modellrobustheit, potenziellen Einschränkungen von Deep Learning bei der Kreditrisikomodellierung und Herausforderungen bei der realen Implementierung fortgesetzt. Dr. Xiao interagiert aktiv mit dem Publikum und teilt sein Fachwissen und seine Erkenntnisse aus seiner Forschung.
Was beeinflusst eine Quant-Strategie? [Podiumsdiskussion] – 24. September 2020
Was beeinflusst eine Quant-Strategie? [Podiumsdiskussion] – 24. September 2020
Während der Podiumsdiskussion über Alpha-Strategien im Finanzwesen argumentierte Nicholas, dass es unglaublich schwierig sei, Alpha in Investmentfonds und Hedgefonds zu schaffen, und erklärte, dass 99 % der Anleger nicht aktiv nach Alpha-Positionen suchen sollten. Er betont die Herausforderungen bei der Generierung von Alpha in marktneutralen Hedgefonds und weist darauf hin, dass Faktorinvestitionen eine praktikablere Option sind, um den Markt zu übertreffen.
Das Gremium stimmt mit Nicholas überein und betont, wie wichtig es ist, einzigartige Datenquellen zu finden und diese für die Entwicklung einer systematischen Strategie für Faktorinvestitionen zu nutzen. Sie glauben, dass dieser Ansatz der Schlüssel zur erfolgreichen Alpha-Generierung ist. Sie erörtern auch die Schwierigkeit, auf dem aktuellen Markt echtes Alpha zu erzielen, und schlagen alternative Strategien wie Vermögensallokation und Risikomanagement vor.
Das Gremium rät davon ab, sich ausschließlich auf die Suche nach Alpha zu konzentrieren, und schlägt vor, nach Marktnischen zu suchen, die weniger abgedeckt und daher weniger effizient sind. Sie betonen, wie wichtig es ist, eine gut aufgebaute Portfolio-Benchmark aufzubauen, beispielsweise Beta-Strategien, und ermutigen Anleger, über den S&P 500 hinauszuschauen, um potenziell profitable Aktien zu finden.
Die Diskussionsteilnehmer warnen davor, dass selbst wenn Alpha identifiziert wird, es aufgrund möglicher Konflikte mit Prime Brokern möglicherweise nicht möglich ist, es zu ernten. Sie diskutieren auch die Vorteile des Handels mit Vermögenswerten, die nicht zum Hauptanlageuniversum in Futures gehören oder nicht Teil des Mandats des Managers sind. Solche Vermögenswerte sind oft weniger überfüllt, was zu höheren Sharpe-Ratios im Vergleich zu Vermögenswerten führt, die auf dem Markt bekannt sind. Sie erkennen jedoch an, dass der Handel mit diesen Vermögenswerten aufgrund ihrer geringeren Liquidität und des erhöhten Handelsaufwands möglicherweise eine kleinere Portfoliogröße erfordert und höhere Gebühren anfällt.
Laurent stimmt mit Nicholas‘ Ansicht überein, dass traditionelle aktive Managementstrategien, wie etwa die Aktienauswahl auf der Long-Seite, nie gut funktioniert haben. Er glaubt, dass sich die Beweislast auf aktive Manager verlagert hat, die ihre Fähigkeit nachweisen müssen, sich in schwierigen Märkten weiterzuentwickeln und Leistungen zu erbringen.
Das Panel diskutiert auch, wie wichtig es ist, die Short-Seite einer Long-Short-Anlagestrategie zu berücksichtigen. Sie betonen die Notwendigkeit eines Risikomanagements und eines Stresstests der Strategie durch umfangreiches Backtesting, einschließlich der Untersuchung der Auswirkungen von Transaktionskosten und Marktstrukturänderungen. Das Gremium empfiehlt, ausreichend Zeit mit der Strategie zu verbringen, um die wenigen zu identifizieren, die den Validierungsprozess überleben.
Die Diskussion geht weiter zu den praktischen Implikationen und der Visualisierung von Strategien zur Alpha-Generierung. Das Gremium erkennt den Wert akademischer Forschung an, stellt jedoch fest, dass es ihr häufig an praktischen Implikationen und Umsetzungsdetails mangelt. Sie betonen, wie wichtig es ist, Strategien zu entwickeln, die aus Portfolioperspektive umgesetzt werden können, die Transaktionskosten überstehen und den Erwartungen der Kunden entsprechen. Visuelle Darstellungen, beispielsweise Diagramme, die Trading-Drawdowns veranschaulichen, werden Tabellen vorgezogen, da sie den Anlegern helfen, bei erheblichen Drawdowns ihre Strategien beizubehalten.
Der Redner betont, wie wichtig es ist, eine Strategie zu entwickeln, die mit den Zielen des Kunden übereinstimmt und mit wirtschaftlichen und fundamentalen Gründen synchronisiert ist. Sie betonen die Notwendigkeit von Einfachheit und Erklärbarkeit und betonen, dass eine Strategie in wenigen einfachen Sätzen zusammengefasst werden kann. Beim Backtesting geht es nicht nur darum, zu beweisen, dass eine Strategie funktioniert, sondern auch darum, ihre Widerstandsfähigkeit zu testen, indem man ihre Grenzen austestet.
Das Gremium reflektiert die Auswirkungen quantitativer Strategien und identifiziert Mean-Reversion und Trendfolge als die beiden grundlegenden Strategien, unabhängig von der Anlageklasse oder dem Zeitrahmen. Sie vergleichen Trendfolge mit dem Kauf von Lottoscheinen mit niedrigen Gewinnraten und hoher Volatilität und heben die Mean-Reversion als eine Strategie hervor, die jeweils einen Dollar mit hohen Gewinnraten und geringer Volatilität generiert. Sie erörtern die Bedeutung der Verlustbewältigung und der Optimierung der Gewinnerwartung durch Kombination und Kombination dieser Strategien. Sie gehen auch auf die Herausforderungen ein, die mit Leerverkäufen und dem Aufspüren institutioneller Anleger einhergehen.
Im Mittelpunkt der Diskussion steht das Risikomanagement, wobei das Panel die Notwendigkeit einer positiven Erwartungshaltung bei Börsenstrategien betont. Sie betrachten den Aktienmarkt als ein unendliches, zufälliges und komplexes Spiel und schlagen vor, Geschäfte mit hohen Gewinnraten mit Lottoscheinen zu kombinieren, um potenzielle Verluste zu minimieren. Das Gremium diskutiert auch, wann eine Strategie eingestellt werden sollte, und betont, wie wichtig es ist, mit der Forschung auf dem Laufenden zu bleiben und strukturelle Veränderungen oder Marktschwankungen zu berücksichtigen, die sich auf eine Strategie auswirken könnten. Die Einstellung einer Strategie sollte erst nach gründlicher Recherche und Rahmenänderungen erfolgen.
Das Gremium befasst sich mit den Schwierigkeiten bei der Verwaltung mehrerer Anlagestrategien und dem Umgang mit leistungsschwachen Strategien. Sie betonen, wie wichtig es ist, sich an den Anlageauftrag zu halten und die Erwartungen der Kunden zu verstehen. Das Gremium schlägt einen Prozess vor, um neue Strategien zu finden und umzusetzen und gleichzeitig zu wissen, wann Strategien, die nicht gut funktionieren, eingestellt werden müssen. Sie diskutieren zwei Ansätze für den Umgang mit leistungsschwachen Strategien: Entweder behalten Sie sie langfristig bei oder nutzen Trendfolgetechniken und entfernen sie aus dem Portfolio. Die Entscheidung hängt vom konkreten Auftrag und der Finanzierung des Multi-Strategie- und Multi-Asset-Fonds ab.
Die Diskussionsteilnehmer betonen die Herausforderungen des quantitativen Investierens und die Bedeutung des Vertrauens in die geleistete Arbeit, unabhängig vom Umfang der Forschung. Sie erwähnen die Möglichkeit, Strategien in bessere umzuwandeln, und betonen den Mangel an wirklich diversifizierenden Strategien. Sie sprechen auch das Leerverkaufen von Aktien wie Tesla an und stellen fest, dass das Leerverkaufen einer Aktie im Wesentlichen das Leerverkaufen einer Idee oder Überzeugung ist, insbesondere bei Bewertungsshorts, die auf einer Geschichte basieren. Sie liefern ein Beispiel aus Japan im Jahr 2005, wo ein Konsumentenfinanzierungsunternehmen eine stratosphärische Bewertung hatte, aber ein friedlicher Leerverkauf blieb, bis es schließlich einige Jahre später bankrott ging.
Die Redner erörtern die Fallstricke, wenn eine Strategie auf der Grundlage surrealer Bewertungen, die nicht den traditionellen Erwartungen entsprechen, aufgegeben wird. Sie erwähnen Unternehmen wie Tesla, deren Marktkapitalisierung die von größeren Unternehmen wie Toyota übertroffen hat. Die Diskussionsteilnehmer betonen die Bedeutung der Symmetrie bei der Einhaltung der gleichen Regeln sowohl für die kurze als auch die lange Seite, räumen jedoch ein, dass dies eine größere Herausforderung darstellt. Sie glauben, dass viele Strategien verbessert werden können und dass sogar verschiedene Anlageklassen im Wesentlichen eine Wette auf das Wirtschaftswachstum darstellen.
Das Panel diskutiert auch die Schwierigkeit, Strategien zu finden, die wirklich diversifizieren und von finanzieller Unsicherheit und Volatilität profitieren. Sie weisen auf die diesbezüglichen Grenzen klassischer Hedgefonds-Strategien hin und empfehlen angehenden Quants, in Mustern zu denken und bereit zu sein, Strategien zu verwerfen, die nicht funktionieren. Sie schlagen vor, dass Privatanleger sich auf kostengünstige, diversifizierte ETFs konzentrieren und dem Risikomanagement Priorität einräumen.
Das Panel schließt die Diskussion ab, indem es sich mit der Effizienz der Finanzmärkte und den Herausforderungen befasst, denen sich einzelne Anleger im Wettbewerb mit Profis gegenübersehen. Sie empfehlen, wissenschaftliche Forschungsarbeiten als Inspiration statt als Evangelium zu nutzen und Ideen zu finden, die nicht zum Mainstream gehören, um eine übermäßige Korrelation mit dem breiteren Markt zu vermeiden. Sie stellen ihre Twitter-Benutzernamen, LinkedIn-Profile und Websites für diejenigen zur Verfügung, die daran interessiert sind, ihre Arbeit weiter zu erkunden.
Das Panel befasst sich mit verschiedenen Aspekten von Alpha-Suchstrategien und beleuchtet die Schwierigkeiten, alternative Ansätze, Überlegungen zum Risikomanagement und die Bedeutung praktischer Implikationen und Visualisierung. Ihre Erkenntnisse bieten wertvolle Orientierungshilfen für Investoren und Quants, die sich in der komplexen Finanzlandschaft zurechtfinden.
Handeln mit Deep Reinforcement Learning | Dr. Thomas Starke
Handeln mit Deep Reinforcement Learning | Dr. Thomas Starke
Dr. Thomas Starke, Experte für Deep Reinforcement Learning im Trading, stellt das Konzept des Reinforcement Learning (RL) und seine Anwendung im Handelsbereich vor. Durch Reinforcement Learning können Maschinen lernen, eine Aufgabe ohne explizite Aufsicht auszuführen, indem sie die besten Maßnahmen ermitteln, um günstige Ergebnisse zu maximieren. Er verwendet das Beispiel eines maschinellen Lernens zum Spielen eines Computerspiels, bei dem verschiedene Schritte durchlaufen werden, während auf visuelle Hinweise auf dem Bildschirm reagiert wird. Der Erfolg oder Misserfolg der Maschine wird durch die Entscheidungen bestimmt, die sie im Laufe des Spiels trifft.
Dr. Starke geht in die Besonderheiten des Handels mit Deep Reinforcement Learning ein, indem er den Markov-Entscheidungsprozess erörtert. In diesem Prozess entspricht jeder Zustand einem bestimmten Marktparameter, und eine durchgeführte Aktion leitet den Prozess in den nächsten Zustand über. Je nach Übergang erhält der Agent (die Maschine) eine positive oder negative Belohnung. Das Ziel besteht darin, die erwartete Belohnung angesichts einer bestimmten Richtlinie und eines bestimmten Staates zu maximieren. Im Kontext des Handels helfen Marktparameter dabei, den aktuellen Zustand zu ermitteln, sodass der Agent fundierte Entscheidungen über die zu ergreifenden Maßnahmen treffen kann.
Der Entscheidungsprozess im Handel umfasst die Entscheidung, ob Positionen gekauft, verkauft oder gehalten werden sollen, basierend auf verschiedenen Indikatoren, die Aufschluss über den Zustand des Systems geben. Das ultimative Ziel besteht darin, die bestmögliche Belohnung zu erhalten, nämlich den Gewinn oder Verlust, der sich aus dem Handel ergibt. Dr. Starke weist darauf hin, dass herkömmliche Ansätze des maschinellen Lernens den Zuständen bestimmte Bezeichnungen zuweisen, beispielsweise unmittelbaren Gewinn oder Verlust. Dies kann jedoch zu falschen Bezeichnungen führen, wenn ein Handel vorübergehend entgegen den Erwartungen verläuft. Die Maschine muss verstehen, wann sie in einem Trade bleiben muss, auch wenn sie anfänglich Verluste erleidet, und die Überzeugung haben, mit dem Ausstieg zu warten, bis der Trade wieder auf die Durchschnittslinie zurückkehrt.
Um die Schwierigkeit anzugehen, jeden Schritt im Gewinn und Verlust eines Handels zu kennzeichnen, führt Dr. Starke die rückwirkende Kennzeichnung beim Reinforcement Learning ein. Herkömmliches maschinelles Lernen kennzeichnet jeden Schritt eines Handels, was es schwierig macht, vorherzusagen, ob ein Handel trotz anfänglicher Verluste in der Zukunft profitabel sein wird. Bei der rückwirkenden Kennzeichnung wird die Bellman-Gleichung verwendet, um jeder Aktion und jedem Zustand einen Wert ungleich Null zuzuweisen, auch wenn dies keinen unmittelbaren Gewinn bringt. Dieser Ansatz ermöglicht die Möglichkeit einer Rückkehr zum Mittelwert und einer eventuellen Rentabilität.
Eine verzögerte Befriedigung ist eine zentrale Herausforderung beim Trading, und Dr. Starke erklärt, wie Verstärkungslernen dabei hilft, diese Hürde zu überwinden. Zur Berechnung der Belohnung einer Aktion wird die Bellman-Gleichung verwendet, die sowohl die unmittelbare Belohnung („r“) als auch die kumulative Belohnung („q“) berücksichtigt. Der Abzinsungsfaktor („Gamma“) bestimmt die Gewichtung zukünftiger Ergebnisse im Vergleich zu früheren. Durch die Nutzung von Reinforcement Learning basieren Handelsentscheidungen nicht nur auf unmittelbaren Erträgen, sondern berücksichtigen auch das Potenzial für höhere künftige Erträge. Dieser Ansatz ermöglicht eine fundiertere Entscheidungsfindung im Vergleich zur rein gierigen Entscheidungsfindung.
Aufgrund der Komplexität der Finanzmärkte und der großen Anzahl zu berücksichtigender Zustände und Einflüsse ist Deep Reinforcement Learning im Handel besonders nützlich. Dr. Starke hebt die Verwendung tiefer neuronaler Netze hervor, um Tabellen basierend auf früheren Erfahrungen anzunähern, wodurch die Notwendigkeit einer riesigen Tabelle entfällt. Er betont, wie wichtig es ist, Eingaben auszuwählen, die einen Vorhersagewert haben, und das System auf bekanntes Verhalten zu testen. Der Zustand im Handel umfasst historische und aktuelle Preise, technische Sicherheitsdaten, alternative Datenquellen wie Stimmungs- oder Satellitenbilder und mehr. Es ist von entscheidender Bedeutung, die richtige Belohnungsfunktion und die richtigen Eingaben zur Definition des Zustands zu finden. Die ständige Aktualisierung der durch neuronale Netze angenäherten Tabellen ermöglicht es der Maschine, schrittweise zu lernen und bessere Handelsentscheidungen zu treffen.
Dr. Starke erläutert, wie die Preisreihe für Schulungen mithilfe von Reinforcement Learning strukturiert werden kann. Anstatt die Preisreihe nacheinander zu durchlaufen, kann man an verschiedenen Punkten zufällig ein- und aussteigen. Die Wahl der Methode hängt von den spezifischen Anforderungen und Vorlieben des Benutzers ab. Er befasst sich auch mit der Herausforderung, eine Belohnungsfunktion zu entwerfen, und liefert Beispiele wie die Verwendung reiner prozentualer Gewinne und Verluste (P&L), des Gewinns pro Tick, der Sharpe-Ratio und verschiedener Arten von Strafen, um längere Drawdowns oder übermäßige Handelsdauern zu vermeiden.
In Bezug auf Eingaben schlägt Dr. Starke mehrere Optionen vor, darunter Eröffnungs-, Höchst-, Tiefst-, Schluss- und Volumenwerte, Candlestick-Muster, technische Indikatoren wie den Relative-Stärke-Index und verschiedene zeitbezogene Faktoren. Zu den Eingaben können auch Preise und technische Indikatoren anderer Instrumente sowie alternative Datenquellen wie Stimmungsanalysen oder Satellitenbilder gehören. Diese Eingaben werden kombiniert, um einen komplexen Zustand zu konstruieren, ähnlich wie ein Computerspiel Eingabefunktionen nutzt, um Entscheidungen zu treffen. Es ist von entscheidender Bedeutung, die richtige Belohnungsfunktion zu finden, die zum eigenen Handelsstil passt, da sie eine entsprechende Optimierung des Systems ermöglicht.
Die Testphase ist ein wesentlicher Schritt für das verstärkte Lernen im Handel. Dr. Starke erklärt die von ihm durchgeführten Testreihen, darunter saubere Sinuswellen, Trendkurven, zufällige Reihen ohne Struktur, verschiedene Arten von Ordnungskorrelationen, Rauschen in sauberen Testkurven und wiederkehrende Muster. Mithilfe dieser Tests lässt sich beurteilen, ob die Maschine dauerhaft Gewinne erwirtschaftet, und eventuelle Fehler in der Codierung identifizieren. Er diskutiert auch die Verwendung verschiedener Arten neuronaler Netze, wie z. B. Standard-, Faltungs- und LSTM-Netze (Long Short-Term Memory). Dr. Starke bevorzugt einfachere neuronale Netze, die seinen Bedürfnissen genügen und keinen übermäßigen Rechenaufwand erfordern.
Dr. Starke erkennt die Herausforderungen des Handels mit Reinforcement Learning an, wie etwa die Unterscheidung zwischen Signal und Rauschen und das Problem lokaler Minima. Verstärkungslernen hat Schwierigkeiten mit verrauschten Finanzzeitreihen und dynamischen Finanzsystemen, die durch sich ändernde Regeln und Marktregime gekennzeichnet sind. Er zeigt jedoch, dass die Glättung der Preiskurve mit einem einfachen gleitenden Durchschnitt die Leistung der Reinforcement-Learning-Maschine erheblich steigern kann. Diese Erkenntnisse bieten Hinweise zum Aufbau eines erfolgreichen maschinellen Lernsystems, das in der Lage ist, profitable Handelsentscheidungen zu treffen.
Zu Publikumsfragen gibt Dr. Starke weitere Einblicke. Er bestätigt, dass die Bellman-Gleichung die Einführung einer Voreingenommenheit vermeidet und technische Indikatoren nach sorgfältiger Analyse als Eingaben verwendet werden können. Er weist darauf hin, dass Satellitenbilder für die Vorhersage von Aktienkursen wertvoll sein könnten. In Bezug auf die Zeitrahmen kann der Verstärkungshandel abhängig von der Rechenzeit des neuronalen Netzwerks auf kleine Zeitrahmen angewendet werden. Er erörtert die Empfindlichkeit von Verstärkungshandelsalgorithmen gegenüber Marktanomalien und erklärt, warum das Training zufälliger Entscheidungsbäume mithilfe von Verstärkungslernen keinen Sinn macht.
Auf die Frage nach der Wahl neuronaler Netze empfiehlt Dr. Starke aufgrund ihrer Eignung für das Problem, neuronale Netze für den Handel anstelle von Entscheidungsbäumen oder Support-Vektor-Maschinen zu verwenden. Für eine optimale Leistung ist die Optimierung der Verlustfunktion basierend auf der Belohnungsfunktion von entscheidender Bedeutung. Er räumt ein, dass einige Versuche unternommen wurden, Reinforcement Learning für den Hochfrequenzhandel zu nutzen, aber langsame neuronale Netze, denen es an Reaktionsfähigkeit auf Echtzeitmärkten mangelt, stellten eine Einschränkung dar. Dr. Starke betont, wie wichtig es ist, sich Marktkenntnisse anzueignen, um eine erfolgreiche Karriere im Trading zu verfolgen, echte Trades zu tätigen und während des gesamten Prozesses umfassend zu lernen. Abschließend erörtert er die Herausforderungen, die mit der Kombination neuronaler Netze und Optionshandel verbunden sind.
Dr. Starke befasst sich auch mit der Verwendung von Optionsdaten als Input für den Handel mit dem zugrunde liegenden Instrument, anstatt sich ausschließlich auf technische Indikatoren zu verlassen. Er bietet Einblicke in die Verwendung neuronaler Netze zur Bestimmung der Anzahl der zu kaufenden oder zu verkaufenden Lots und die Einbeziehung von Faktoren wie Spread, Provision und Slippage in den Algorithmus, indem er ein Slippage-Modell erstellt und diese Faktoren in die Belohnungsfunktion integriert. Er rät zur Vorsicht beim Einsatz neuronaler Netze zur Bestimmung von Handelsvolumina und schlägt vor, die Portfoliogewichte anhand von Ausgabewerten entsprechend anzupassen. Abschließend bedankt er sich für die Fragen des Publikums und die Teilnahme an seinem Vortrag und lädt zu weiterem Engagement und Interaktion über LinkedIn ein.
Während des Vortrags betonte Dr. Starke die Bedeutung des kontinuierlichen Lernens und der Verbesserung im Bereich Trading durch Reinforcement Learning. Er betonte die Notwendigkeit, die neuronalen Netze ständig zu aktualisieren und das System auf der Grundlage neuer Daten und Marktbedingungen zu verfeinern. Dieser iterative Prozess ermöglicht es der Maschine, sich an veränderte Dynamiken anzupassen und ihre Entscheidungsfähigkeiten im Laufe der Zeit zu verbessern.
Dr. Starke erörterte außerdem das Konzept der Modellvalidierung und die Bedeutung von Out-of-Sample-Tests. Es ist von entscheidender Bedeutung, die Leistung des trainierten Modells anhand unsichtbarer Daten zu bewerten, um sicherzustellen, dass es sich gut verallgemeinern lässt und nicht zu sehr an bestimmte Marktbedingungen angepasst ist. Out-of-Sample-Tests tragen zur Validierung der Robustheit des Systems bei und ermöglichen eine realistischere Bewertung seiner Leistung.
Darüber hinaus ging er auf die Herausforderungen der Datenvorverarbeitung und des Feature Engineering im Handel mit Reinforcement Learning ein. Die Aufbereitung der Daten in einem geeigneten Format und die Auswahl informativer Funktionen sind entscheidende Schritte beim Aufbau eines effektiven Handelsmodells. Dr. Starke schlug vor, verschiedene Techniken wie Normalisierung, Skalierung und Merkmalsauswahl zu erkunden, um die Eingabedaten für die neuronalen Netze zu optimieren.
Darüber hinaus erkannte Dr. Starke die Grenzen des Reinforcement Learning und seine Anfälligkeit für Marktanomalien oder Extremereignisse an. Während Reinforcement Learning wertvolle Erkenntnisse liefern und profitable Strategien generieren kann, ist es wichtig, Vorsicht walten zu lassen und die mit dem Handel verbundenen Risiken zu verstehen. Risikomanagement und Diversifikationsstrategien spielen eine entscheidende Rolle, um potenzielle Verluste zu mindern und den langfristigen Erfolg sicherzustellen.
Abschließend lieferte der Vortrag von Dr. Starke einen umfassenden Überblick über die Anwendung von Reinforcement Learning im Trading. Er erörterte die Schlüsselkonzepte, Herausforderungen und Best Practices im Zusammenhang mit der Verwendung von Deep-Reinforcement-Learning-Algorithmen, um fundierte Handelsentscheidungen zu treffen. Durch die Nutzung der Leistungsfähigkeit neuronaler Netze und der Prinzipien des Reinforcement Learning können Händler ihre Strategien verbessern und möglicherweise eine bessere Leistung auf dynamischen und komplexen Finanzmärkten erzielen.
EPAT Sneak Peek Lecture – Wie optimiert man eine Handelsstrategie? - 27. Februar 2020
EPAT Sneak Peek Lecture – Wie optimiert man eine Handelsstrategie? - 27. Februar 2020
Im Video liefert der Referent zunächst Hintergrundinformationen zu Inhalt C und stellt seine Erfahrungen im Handel und Bankwesen vor. Sie diskutieren die verschiedenen Handelsmethoden, darunter systematischer Handel, quantitativer Handel, algorithmischer Handel und Hochfrequenzhandel. Der Schwerpunkt des Videos liegt darin, Einblicke in die Entwicklung und Optimierung einer Handelsstrategie auf quantifizierbare Weise zu geben und diskretionäre und quantitative Handelsansätze zu vergleichen.
Der Referent betont die Bedeutung der Outperformance und der Trefferquote im Handel. Sie erklären, dass Händler eine bestimmte Anzahl von Malen mit ihren Vorhersagen richtig liegen müssen, um mit einer Wahrscheinlichkeit von 95 % eine Outperformance bei mindestens 50 % der Aktien zu erzielen, was mit der Anzahl der verfolgten und gehandelten Vermögenswerte zunimmt. Der systematische Handel, der es ermöglicht, mehr Aktien zu verfolgen, hat in dieser Hinsicht einen Vorteil gegenüber dem diskretionären Handel. Allerdings kann der diskretionäre Handel tiefere firmeneigene Erkenntnisse liefern, indem er weniger Aktien verfolgt. Der Redner stellt das Grundgesetz des Investmentmanagements vor, das besagt, dass die Leistung eines Investmentmanagers gegenüber der Benchmark direkt proportional zu seiner Trefferquote und der Quadratwurzel der Anzahl der angenommenen Wetten ist.
Verschiedene Arten von Händlern, wie z. B. technische Händler, fundamentale Händler und Quants, erfassen Risiko und Rendite auf unterschiedliche Weise. Der Referent erklärt, dass fast alle dieser Handelsansätze als Regeln ausgedrückt werden können, was einen systematischen Handel ermöglicht. Eine Handelsstrategie ist definiert als ein mathematisches Regelwerk, das unabhängig von der Marktphase bestimmt, wann gekauft, verkauft oder gehalten werden soll. Das Ziel einer Handelsstrategie besteht darin, auf Basis eingehender Daten eine Signalfunktion zu generieren und diese in eine Zielposition für den Basiswert umzuwandeln. Während der Handel aufgrund der Zufälligkeit und des stochastischen Charakters des Marktes komplex ist, können regelbasierte Strategien zur Risikobewältigung beitragen.
Der Referent geht auf die Funktionen ein, die bei der Gestaltung und Umsetzung einer Handelsstrategie eine Rolle spielen. Sie betonen, dass die erzielte Rendite auf dem tatsächlichen Markt außerhalb der eigenen Kontrolle liegt und nicht geändert werden kann. Daher ist es wichtig, die Funktion von Pi angesichts einiger Einschränkungen durch Ändern von Parametern zu optimieren, um die Strategie zu verbessern. Der Redner erläutert die Phasen der Strategieentwicklung, einschließlich Ideenfindung, Hypothesentests, Regelkonvertierung, Backtesting, Risikoabschätzung, Bereitstellung und die Bedeutung der Suche nach der nächsten Strategie nach der Bereitstellung.
Gleichungen für die Kapitalrendite einer Handelsstrategie werden unter Berücksichtigung von Faktoren wie Alpha, Beta und Epsilon erläutert. Der Redner geht auch auf Risiken und Panels in einer Strategie ein und erklärt, wie idiosynkratische Risiken diversifiziert werden können und nicht Teil der erwarteten Rendite sind. Die Konzepte von Beta und Alpha werden eingeführt, wobei eine passive, breit angelegte Indexierung für das Marktfaktor-Exposure und das Potenzial für eine weitere Diversifizierung durch Kauffaktoren wie Value oder Momentum vorgeschlagen wird. Die Schaffung von Alpha gilt als herausfordernde Aufgabe, die eine sorgfältige Auswahl oder Zeitplanung erfordert.
Der Redner betont die Bedeutung von Alpha und Market Timing bei Handelsstrategien. Sie erklären, dass eine effektive Strategie die Erfassung eines konstanten Alphas und die Vorhersage von Veränderungen der Marktfaktoren erfordert. Fehlt einem diese Fähigkeit, ist passives Investieren die einzig gangbare Option. Der Referent empfiehlt, die Entwicklung einer einfachen Handelsstrategie mit Ideen und sorgfältiger Beobachtung zu beginnen, bevor mit dem Backtesting fortgefahren wird. Um erste Erkenntnisse zu gewinnen, empfiehlt sich ein tiefer Einblick in potenzielle Ideen anhand von Tagespreisen.
Es wird demonstriert, wie eine Handelsstrategie mithilfe von Codierungs- und Datenanalysetechniken optimiert werden kann. Das Beispiel verwendet Microsoft-, Apple- und Google-Aktien, um Handelssignale zu berechnen und den anschließenden Wertausverkauf auf der Grundlage der Eröffnung und des heutigen Schlusskurses zu schätzen. Die explorative Analyse wird durch die Darstellung von Diagrammen durchgeführt, um Unterschiede in den Preisbewegungen zu visualisieren. Die Datenstandardisierung wird diskutiert, um den Wert von X über verschiedene Aktien hinweg vergleichbar zu machen, wobei Faktoren wie Volatilitäten, Preise und der Prozentsatz der Volatilität berücksichtigt werden. Der Redner beleuchtet das statistische Phänomen im Zusammenhang mit Gap-up und Gap-down bei den Large-Cap-Reliance-Aktien des indischen Marktes und den S&P-Top-20-Indizes, was zur Definition von Eröffnungsspanne und Schlusskurs führt.
Anschließend geht der Redner auf die Vorteile des EPAT-Programms (Executive Program in Algorithmic Trading) für Händler und Einzelpersonen ein, die eine Karriere im Handel anstreben. Sie betonen, dass es sich beim EPAT-Programm um ein praktisches, auf den Handel ausgerichtetes Programm handelt, das sich für diejenigen eignet, die Händler werden oder in Brokerage-Trading-Desks arbeiten möchten. Das Programm vermittelt ein umfassendes Verständnis von Handelsstrategien, Risikomanagementtechniken und den praktischen Aspekten des algorithmischen Handels.
Im Gegensatz zu Programmen, die sich eher auf theoretische Aspekte konzentrieren, bietet das EPAT-Programm praktisches Wissen, das direkt in realen Handelsszenarien angewendet werden kann. Der Referent ermutigt Personen, die Risikoquanten werden möchten, andere Programme zu erkunden, die tiefer in theoretische Konzepte eintauchen.
Auf die Frage nach Statistikthemen, die für den Handel von Bedeutung sind, empfiehlt der Redner, sich auf ein Statistikbuch auf Hochschulniveau zu beziehen, um Einblicke in die Anwendung von Statistiken im Handel zu erhalten. Sie schlagen außerdem vor, quantitative Finanzblogs und Twitter-Konten zu verfolgen, um auf wertvolle Lernmaterialien zuzugreifen und über die neuesten Trends und Entwicklungen in diesem Bereich auf dem Laufenden zu bleiben.
In Bezug auf die Strategieentwicklung betont der Redner die Bedeutung des Denkens in Bezug auf Statistik und Quantifizierung, um Handelsideen in Code umzusetzen. Das EPAT-Programm vermittelt Händlern die notwendigen Fähigkeiten, um gute und profitable Handelsstrategien zu definieren. Sie betonen die Notwendigkeit, Anstrengungen in die Strategieentwicklung zu stecken und erkennen an, dass die Erzielung konstanter Gewinne im Algo-Handel Hingabe und Ausdauer erfordert.
Der Redner geht auf spezifische Fragen des Publikums ein und gibt Hinweise zu Themen wie der Definition lokaler Tiefst- und Höchstwerte im Code, der Beschaffung und Verwendung von Code für den Optionshandel und der Suche nach Beispielcode. Sie erwähnen, dass Codebeispiele auf GitHub zu finden sind und stellen klar, dass das EPAT-Programm Komponenten von Handelsstrategien enthält, sind sich jedoch nicht sicher, ob die Positionsgrößenbestimmung abgedeckt ist.
Anschließend erörtert der Redner die Anwendung des Algo-Handels in einfachen Optionsstrategien wie Iron Condors. Sie unterstreichen die Bedeutung der Ausführungsgeschwindigkeit im Hochfrequenzhandel, bei dem der Zeitpunkt der Ausführung eine entscheidende Rolle spielt. Für mittel- bis langfristige Strategien sind jedoch Alpha-Quellen wichtiger als Geschwindigkeit. Algo-Trading kann besonders nützlich sein, wenn es darum geht, mehrere Optionen auf verschiedene Aktien zu überwachen, um sicherzustellen, dass keine potenziellen Trades verpasst werden.
Der Redner teilt seine Sicht auf die Verwendung alternativer Daten in Handelsstrategien. Sie äußern gemischte Gefühle hinsichtlich der Wirksamkeit und weisen darauf hin, dass einige alternative Daten zwar wertvoll sein können, aber nicht alle Datenquellen nützliche Erkenntnisse liefern. Die Entscheidung, Ausreißer in Handelsstrategien einzubeziehen, hängt von den spezifischen Handels- und Risikoprofilen der verwendeten Strategie ab.
Es werden auch adaptive Strategien diskutiert, die die Fähigkeit besitzen, sich aufgrund veränderter Marktbedingungen selbst zu optimieren. Der Redner beleuchtet verschiedene Techniken zur Erstellung adaptiver Strategien und betont deren Potenzial zur Verbesserung der Handelsleistung und Anpassungsfähigkeit.
Abschließend bekräftigt der Redner, dass es zwar möglich ist, Handelsstrategien auf der Grundlage verschiedener Arten von Diagrammen zu entwickeln, es jedoch wichtig ist, über spezifische Regeln zu verfügen, um den Erfolg sicherzustellen. Sie warnen davor, dass es auf dem Markt kein „kostenloses Mittagessen“ gibt, und betonen die Bedeutung eines disziplinierten und systematischen Ansatzes bei Handelsentscheidungen.
Das Video endet mit einer Einladung an die Zuschauer, weitere Fragen zum EPAT-Programm oder seinen potenziellen Vorteilen für ihre Karriere und ihr Unternehmen zu stellen. Interessierte Personen werden gebeten, sich über das bereitgestellte Forum oder andere Kommunikationskanäle an Programmberater zu wenden, um sich über Zulassungsdetails und Gebührenflexibilität zu erkundigen.