Quantitativer Handel - Seite 26

 

Algorithmischer Handel auf Rohstoffmärkten



Algorithmischer Handel auf Rohstoffmärkten

Sunil Lani, stellvertretender Vizepräsident bei NCDEX (National Commodity and Derivatives Exchange), nutzt die Gelegenheit, in die Welt des algorithmischen Handels auf Rohstoffmärkten einzutauchen und sich dabei insbesondere auf Agrarrohstoffe zu konzentrieren. NCDEX, die größte Agrarbörse in Indien, bietet ein vielfältiges Angebot von etwa 20 Rohstoffen zum Handel an.

Lani stellt zunächst die drei beliebten Handelsstile vor, die üblicherweise auf Rohstoffmärkten eingesetzt werden: Absicherung, Arbitrage und direktionaler Handel. Er hebt die Absicherung als eine Anlagestrategie hervor, die dazu dient, das mit einer Primärinvestition verbundene Risiko zu mindern. Im Zusammenhang mit NCDEX sichern Landwirte häufig ihre zugrunde liegenden landwirtschaftlichen Vermögenswerte ab, um das Risiko zu minimieren.

Anschließend verlagert der Redner die Diskussion auf zwei Arten von Handelsstrategien, die auf den Rohstoffmärkten vorherrschen: Absicherung und Arbitrage. Lani betont die Bedeutung stark korrelierter Basiswerte in Absicherungsstrategien. Für den Arbitragehandel geht er auf zwei spezifische Ansätze ein: Calendar Spread und Pair Trading, wobei er darauf hinweist, dass Letzterer Ähnlichkeiten mit Absicherungsstrategien aufweist. Lani betont die Bedeutung der Auswahl hochkorrelierter und kointegrierter Rohstoffe für den Paarhandel und schlägt die Anwendung des T-Fuller-Tests vor, um die Gültigkeit von Korrelationen sicherzustellen.

Darüber hinaus bietet Lani einen Überblick über die verschiedenen Phasen des algorithmischen Handels. Er erklärt, dass der Prozess mit der Identifizierung und dem Herausfiltern geeigneter Skripte oder Instrumente zur Anwendung des Handelskonzepts beginnt. Anschließend wird das Modell visualisiert, gefolgt von einem rigorosen Backtesting und der Optimierung von Parametern oder des Modells selbst. Die nächsten Schritte umfassen den Papierhandel und schließlich den Übergang zum Live-Handel, bei dem es um echtes Geld geht.

Lani setzt seine Diskussion fort und konzentriert sich auf die ersten Schritte des algorithmischen Handels. Er betont, wie wichtig es ist, Handelsideen zu sammeln und eine Handelslogik zu entwickeln, die mit den Zielen des Händlers übereinstimmt. Zu den wichtigsten Überlegungen gehören die Bestimmung der Handelshäufigkeit, die Auswahl des geeigneten Handelssegments und die Festlegung der Backtesting-Zeiträume. Um die Herausforderungen beim Verständnis von Daten für Handelsstrategien zu veranschaulichen, stellt der Redner Daten zur Bruttoinlandsproduktion (BIP) Indiens in verschiedenen Sektoren vor. Er wandelt die Daten in grafische Darstellungen um, was ein besseres Verständnis erleichtert, und schlägt vor, Korrelationen mit Preisbewegungen zu untersuchen. Darüber hinaus präsentiert Lani visuelle Darstellungen historischer Agrardaten und betont dabei die Bedeutung der Analyse von Daten aus mehreren Perspektiven.

Anschließend geht der Redner auf die Ressourcen ein, die für den algorithmischen Handel auf den Rohstoffmärkten erforderlich sind. Er kategorisiert Handelsstrategien in zwei Hauptbereiche: Arbitrage und Momentum. Techniken wie Paarhandel, Korrelationsanalyse, gleitende Durchschnitte und Wahrscheinlichkeitsverteilung werden häufig eingesetzt. Die Infrastruktur ist ein entscheidender Aspekt des algorithmischen Handels, einschließlich der Konnektivität zu einem Broker über eine API und dem Hosten des Algorithmus entweder in der Cloud oder vor Ort. Lani betont außerdem die Bedeutung der Datenvisualisierung und technischer Indikatoren, die mit Tools wie Excel, Tableau, Power BI und TradingView erreicht werden können.

Lani untersucht außerdem verschiedene Tools und Plattformen, die für den algorithmischen Handel auf Rohstoffmärkten geeignet sind. Er erwähnt, dass Nicht-Programmierer oder Halbprogrammierer sich häufig für Plattformen wie Metatrader und Interactive Brokers entscheiden. Für reine Programmierzwecke entwickelt sich Python zur führenden Sprache, wobei Python-basierte algorithmische Handelsplattformen wie Quantopian, Blueshift, QuanTX und Zerodha immer beliebter werden. Darüber hinaus hebt der Redner wichtige Bibliotheken für die Datenverarbeitung und das Backtesting hervor, darunter Pandas, Numpy, Beautifulsoup, Backtrader, sowie Sentiment-Analyse-Bibliotheken wie Stream Python, Feedparser, Peopie und NLP.

Im darauffolgenden Abschnitt erklärt Lani den Prozess der Generierung einer Handelsidee und des Entwurfs eines Modells am Beispiel von Agrarrohstoffen. Da Agrarrohstoffe tendenziell weniger volatil sind als Aktien oder Devisen, schlägt er die Anwendung einer Mean-Reversion-Strategie unter Verwendung von Bollinger-Bändern als Indikator vor, die speziell auf zwei Standardabweichungen von der mittleren Preisspanne festgelegt ist. Zu den Filterkriterien für die Auswahl eines liquiden Rohstoffs gehört die Auswahl eines Rohstoffs mit einem Volumen von mindestens 1080, und Lani empfiehlt, Jana im NCDX zu handeln. Um das Modell zu visualisieren, schlägt Lani vor, investing.com zu verwenden, um die Bollinger-Bänder zu zeichnen, wobei verschiedene Niveaus die Kauf- und Verkaufspunkte angeben.

Lani verlagert den Schwerpunkt auf Backtesting und betont dessen Bedeutung für die Überprüfung der Logik eines algorithmischen Handelsmodells anhand historischer Daten. Dieser Schritt ist entscheidend, um potenzielle Verluste zu vermeiden, wenn das Modell in einer Live-Umgebung bereitgestellt wird. Lani erklärt die Schritte des Backtestings, zu denen das Herunterladen von Daten aus einem offenen Portal, das Importieren relevanter Bibliotheken, das Schreiben unterstützender Funktionen, das Generieren von Kauf- und Verkaufssignalen, die Visualisierung der Ausgabe und die Bewertung der durch die Strategie generierten Rendite gehören. Er schlägt außerdem vor, beim Backtesting Parameter wie Rendite, maximalen Drawdown, maximalen Gewinn und Stop-Loss zu berücksichtigen. Lani empfiehlt, persönliche Backtesting-Funktionen zu nutzen, anstatt sich ausschließlich auf Bibliotheken zu verlassen, die von Plattformen wie Github bezogen werden.

Anschließend erklärt der Redner die verschiedenen Parameter, die eine Funktion berücksichtigt, um Kauf- und Verkaufssignale basierend auf Datenrahmen, Strategietypen, Ein- und Ausstiegskriterien und Positionsfeeds zu generieren. Händler können den Eröffnungs- oder Schlusskurs für ihre Berechnungen konfigurieren sowie Stop-Loss- und Zielprozentsätze festlegen. Lani bespricht außerdem eine statistische Berichtsfunktion und eine weitere Funktion, die anhand der Standardabweichung für einen ausgewählten Indikator Niveaus erstellt. Schließlich ruft die Hauptfunktion diese anderen Funktionen auf, um Kauf- und Verkaufssignale basierend auf der gewählten Strategie zurückzugeben und eine Zusammenfassung zu erstellen.

Im weiteren Verlauf demonstriert Lani, wie man mithilfe von BV-Übungspositionierungsfähigkeiten Trading-Backtesting-Berichte erstellt. Die Ausgabe umfasst einen Datenrahmen, der alle Trades, Transaktionsgebühren und Slip-Edges enthält. Die Backtesting-Funktion wird aufgerufen und die Berichte werden generiert. Diese Berichte bieten Statistiken und grafische Darstellungen der Ausgabe und zeigen die prozentualen Renditen, Transaktionsdetails und kumulierten Renditen über einen bestimmten Zeitraum. Lani analysiert den Bericht und schlägt vor, einen Stop-Loss bei etwa -1,5 festzulegen, um Verluste über -2 % oder -3 % zu vermeiden. Der aus den Backtesting-Ergebnissen erzielte maximale Gewinn betrug 8 %, was darauf hinweist, dass der Stop-Loss auf maximal 8 % oder 9 % festgelegt werden kann.

Anschließend erläutert der Referent den Prozess der Optimierung eines Algorithmus. Lani erklärt, dass ein Optimierungsansatz darin besteht, einen anderen Algorithmus zu erstellen, der den ursprünglichen Algorithmus mehrmals unter Verwendung unterschiedlicher Parametersätze ausführt. Um dies zu veranschaulichen, liefert er ein Beispiel, bei dem der Lookback-Zeitraum für einen Rollback-Zeitraum optimiert wird. Durch die Erstellung einer Liste verschiedener Werte für den Lookback-Zeitraum und die Verwendung einer Kombinationsfunktion kann eine umfassende Liste aller Parametersätze generiert werden. Lani betont, wie wichtig es ist, Algorithmen zu optimieren, um ihre Leistung auf den Rohstoffmärkten zu verbessern.

Lani setzt die Diskussion über die Optimierung fort und erklärt den Prozess der Verwendung von drei Listen zur Bewertung jedes Paares durch die Ellenbogenmethode mit unterschiedlichen Parametern für das Backtesting. Die Backtesting-Ergebnisse werden in einem Datenrahmen namens DF-Optimierer gespeichert, der die Identifizierung der Kombination ermöglicht, die die maximale Rendite bringt. Die optimierten Variablen werden dann in der optimierten Rolle gespeichert. Lani warnt vor einer Überanpassung der Daten während des Optimierungsprozesses und betont, wie wichtig es ist, dieselben Parameter im nächsten Zeitraum anzuwenden, um deren Genauigkeit sicherzustellen. Abschließend lädt der Redner den Bericht herunter, um die Ergebnisse zu prüfen.

Lani stellt dann den Code vor, der zur Optimierung der Handelsparameter verwendet wird, und teilt die daraus resultierenden Statistiken mit, einschließlich Renditen, durchschnittlichen Renditen, maximalem Drawdown und Gewinn-Verlust-Verhältnis. Die optimierten Parameter führten zu einer Rendite von 22,8 %, eine deutliche Verbesserung im Vergleich zu den 9 %, die mit der vorherigen Parameterkombination erreicht wurden. Lani unterstreicht die Bedeutung des Papierhandels zum Testen von Algorithmen, ohne echtes Geld zu riskieren, und betont die Notwendigkeit von Diversifizierung, Portfoliomanagement und Risikomanagement beim Übergang zum Live-Handel. Abschließend weist er auf die Ähnlichkeiten zwischen dem Entwicklungsprozess des algorithmischen Handels und dem Lebenszyklus der Softwareproduktentwicklung hin und betont, wie wichtig es ist, alle Phasen sorgfältig auszuführen, um den Projekterfolg sicherzustellen.

  • 00:00:00 Sunil Lani, stellvertretender Vizepräsident bei NCDEX, diskutiert den algorithmischen Handel auf Rohstoffmärkten, insbesondere Agrarrohstoffen. NCDEX ist die größte Agrarbörse in Indien und bietet rund 20 Rohstoffe zum Handel an. Lani erklärt, dass es bei Rohstoffen drei beliebte Handelsstile gibt: Absicherung, Arbitrage und direktionaler Handel. Bei der Absicherung handelt es sich um eine Investition zur Minderung des Risikos einer Primärinvestition. Bei NCDEX sichern sich Landwirte ihre eigenen zugrunde liegenden Vermögenswerte ab, um das Risiko zu minimieren.

  • 00:05:00 Der Redner diskutiert zwei Arten von Handelsstrategien auf dem Rohstoffmarkt: Absicherung und Arbitrage. Der Redner betont die Bedeutung hochkorrelierter Basiswerte bei der Absicherung. In der Arbitrage geht der Redner hingegen auf zwei Handelsarten ein: Kalender-Spread und Pair-Trading, wobei letzteres dem Hedging ähnelt. Der Redner betont, dass die für den Paarhandel ausgewählten Rohstoffe in hohem Maße korreliert und kointegriert sein sollten, und empfiehlt die Anwendung des T-Fuller-Tests, um dies sicherzustellen. Darüber hinaus gibt der Referent einen Überblick über die verschiedenen Phasen des algorithmischen Handels, darunter das Identifizieren und Herausfiltern von Skripten oder Instrumenten zur Anwendung des Handelskonzepts, die Visualisierung des Modells, Backtesting, die Optimierung von Parametern des Modells, den Papierhandel und den Live-Handel.

  • 00:10:00 Der Redner bespricht die ersten Schritte des algorithmischen Handels, beginnend mit dem Brainstorming von Ideen und der Fertigstellung einer Handelslogikidee. Sie erwähnen die Notwendigkeit, die Häufigkeit der Geschäfte, das für den Handel zu verwendende Segment und die Backtesting-Zeiträume zu ermitteln. Anschließend stellt der Redner Daten zur Bruttoinlandsproduktion (BIP) der verschiedenen Sektoren Indiens vor, um die Schwierigkeit zu verdeutlichen, Daten für Handelsstrategien zu verstehen. Sie wandeln die Daten in eine grafische Darstellung um, um ein besseres Verständnis zu ermöglichen und schlagen vor, die Korrelationen zum Preis zu untersuchen. Anschließend präsentiert der Redner visuelle Darstellungen landwirtschaftlicher Daten im Zeitverlauf, um zu veranschaulichen, wie Daten unterschiedlich interpretiert werden können und wie wichtig es ist, sie auf verschiedene Arten zu analysieren.

  • 00:15:00 Der Redner diskutiert die Ressourcen, die für den algorithmischen Handel auf Rohstoffmärkten benötigt werden. Er unterteilt Handelsstrategien in zwei Hauptbereiche, darunter Arbitrage und Momentum, mit Techniken wie Paarhandel, Korrelation, gleitende Durchschnitte und Wahrscheinlichkeitsverteilung. Einer der wichtigsten Aspekte des algorithmischen Handels ist die Infrastruktur, einschließlich der Verbindung zu einem Broker über eine API und dem Hosten des Algorithmus in der Cloud oder vor Ort. Darüber hinaus können Tools wie Excel, Tableau, Power BI und TradingView zur Datenvisualisierung und Anwendung technischer Indikatoren verwendet werden.

  • 00:20:00 Der Referent diskutiert verschiedene Tools und Plattformen, die für den algorithmischen Handel auf Rohstoffmärkten eingesetzt werden können. Für Nicht-Programmierer oder Halbprogrammierer sind Metatrader und Interactive Brokers beliebte Optionen, während Python die führende Programmiersprache für reine Programmiertools ist. Insbesondere werden Python-basierte algorithmische Handelsplattformen wie Quantopian, Blueshift, QuanTX und Zerodha ausführlich besprochen. Der Redner hebt außerdem beliebte Datenverarbeitungs- und Backtesting-Bibliotheken wie Pandas, Numpy, Beautifulsoup und Backtrader sowie Stimmungsanalysebibliotheken wie Stream Python, Feedparser, Peopie und NLP hervor.

  • 00:25:00 Der Referent erklärt am Beispiel von Agrarrohstoffen, die relativ weniger volatil sind als Aktien und Forex, wie man eine Handelsidee entwickelt und ein Modell entwirft. Die Idee besteht darin, eine Mean-Reversion-Strategie unter Verwendung eines Indikators namens Bollinger-Bändern anzuwenden, der auf zwei Standardabweichungen von der mittleren Preisspanne eingestellt ist. Zu den Filterkriterien gehört die Auswahl eines liquiden Rohstoffs mit einem Volumen von mindestens 1080, für den der Sprecher den Handel mit Jana im NCDX vorschlägt. Das Modell kann mit investing.com visualisiert werden, indem die Bollinger-Bänder gezeichnet werden, wobei verschiedene Ebenen die Kauf- und Verkaufspunkte angeben.

  • 00:30:00 Der Redner diskutiert den Prozess des Backtestings eines algorithmischen Handelsmodells auf Rohstoffmärkten. Backtesting ist wichtig, um die Logik anhand historischer Daten zu überprüfen und Geldverluste zu vermeiden, wenn das Modell in der Live-Umgebung eine schlechte Leistung erbringt. Beim Backtesting müssen verschiedene Parameter wie Rendite, maximaler Drawdown, maximaler Gewinn und Stop-Loss berücksichtigt werden. Der Referent erklärt außerdem die Schritte des Backtestings, einschließlich des Herunterladens von Daten aus einem offenen Portal, des Imports von Bibliotheken, des Schreibens unterstützender Funktionen, der Generierung von Kauf- und Verkaufssignalen, der Visualisierung des Outputs und der Bewertung der durch die Strategie erzielten Rendite. Der Referent erwähnt auch die Verwendung eigener Backtesting-Funktionen anstelle von Bibliotheken von Github.

  • 00:35:00 Der Redner erklärt die verschiedenen Parameter, die eine Funktion berücksichtigt, um Kauf- und Verkaufssignale basierend auf Datenrahmen, Strategietypen, Ein- und Ausstiegskriterien und Positionsfeed zurückzugeben. Mit dieser Funktion können Händler den Eröffnungs- oder Schlusskurs sowie Stop-Loss- und Zielprozentsätze für ihre Berechnungen konfigurieren. Der Redner bespricht außerdem eine Funktion, die statistische Berichte generiert, und eine Funktion, die Niveaus anhand der Standardabweichung für einen ausgewählten Indikator erstellt. Schließlich ruft die Hauptfunktion die anderen Funktionen auf, um Kauf- und Verkaufssignale basierend auf der gewählten Strategie zurückzugeben und eine Zusammenfassung zu erstellen.

  • 00:40:00 Der Redner zeigt, wie man Trading-Backtesting-Berichte mithilfe von BV-Übungspositionierungskompetenzen erstellt. Die Ausgabe umfasst einen Datenrahmen mit allen Trades, Transaktionsgebühren und Slip-Edges. Die Backtesting-Funktion wird aufgerufen und die Berichte generiert. Die Berichte umfassen Statistiken und grafische Darstellungen der Ausgabe, die den Rückgabeprozentsatz, die Transaktion und die kumulierten Rückgaben über einen bestimmten Zeitraum anzeigen. Der Redner analysiert den Bericht und empfiehlt, den Stop-Loss auf etwa -1,5 zu setzen, um Verluste von -2 % und -3 % zu vermeiden. Der maximal erzielte Gewinn betrug 8 %, was bedeutet, dass der Stop-Loss auf maximal 8 % oder 9 % festgelegt werden kann.

  • 00:45:00 Der Referent diskutiert den Prozess der Optimierung eines Algorithmus. Sie erklären, dass eine Möglichkeit zur Optimierung eines Algorithmus darin besteht, einen anderen Algorithmus zu erstellen, der den ursprünglichen Algorithmus mehrmals mit unterschiedlichen Parametersätzen ausführt. Der Referent liefert ein Beispiel für diesen Prozess, in dem er den Lookback-Zeitraum für einen Rollback-Zeitraum optimiert. Sie erstellen eine Liste verschiedener Werte für den Lookback-Zeitraum und erstellen mithilfe einer Kombinationsfunktion eine umfassende Liste aller Parametersätze. Der Redner betont die Bedeutung der Optimierung von Algorithmen, um ihre Leistung auf Rohstoffmärkten zu verbessern.

  • 00:50:00 Der Redner erläutert den Prozess der Verwendung von drei Listen, um jedes Paar durch die Ellbogenmethode mit unterschiedlichen Parametern laufen zu lassen, um die Backtesting-Ergebnisse zu überprüfen und sie in einem Datenrahmen namens DF-Optimierer zu speichern. Sie suchen nach der Kombination, die die maximalen Erträge beibehält, und speichern die optimierten Variablen in der optimierten Rolle. Beim Optimierungsprozess muss darauf geachtet werden, dass die Daten nicht zu stark angepasst werden. Sie betonen, wie wichtig es ist, in der nächsten Periode dieselben Parameter auszuführen, um sicherzustellen, dass die Optimierungsparameter korrekt sind. Abschließend lädt der Redner den Bericht herunter, um die Ergebnisse anzuzeigen.

  • 00:55:00 Der Redner geht auf den Code ein, der zur Optimierung der Handelsparameter und der von ihm erstellten Statistiken verwendet wird, einschließlich der Renditen, der mittleren Renditen, des maximalen Drawdowns und des Gewinn-Verlust-Verhältnisses. Die optimierten Parameter führten zu einer Rendite von 22,8 %, eine deutliche Verbesserung gegenüber den 9 % der vorherigen Kombination. Sie betonen die Bedeutung des Papierhandels, um den Algorithmus zu testen, ohne Geld zu investieren, und die Notwendigkeit einer Diversifizierung, eines Portfolio- und Risikomanagements beim Go-Live. Sie stellen außerdem fest, dass der Entwicklungsprozess des algorithmischen Handels dem Lebenszyklus der Softwareproduktentwicklung ähnelt.

  • 01:00:00 Der Referent erklärt, wie die Phasen des algorithmischen Handels mit denen der Softwareentwicklung verglichen werden können, wobei die Formulierung der Handelsstrategie der Planungs- und Anforderungsphase ähnelt und der Papierhandel und der Simulationshandel der Qualitätssicherung zugeordnet werden. Der Redner betont, dass alle Phasen wichtig sind und die nicht ordnungsgemäße Ausführung einer davon zum Scheitern des gesamten Projekts führen kann.
Algorithmic Trading in Commodity Markets
Algorithmic Trading in Commodity Markets
  • 2020.02.14
  • www.youtube.com
In this webinar "Algorithmic Trading in Commodity Markets", presented by Sunil Guglani, AVP, NCDEX, we go through the following concepts:- Stages of Algorith...
 

Prognostizieren Sie Trends an den Aktienmärkten mithilfe von KI und Python-Programmierung



Prognostizieren Sie Trends an den Aktienmärkten mithilfe von KI und Python-Programmierung

Diese Webinar-Sitzung bietet ein praktisches Lern-Tutorial, das sich auf die Vorhersage von Trends mithilfe von KI an der Börse konzentriert. Die Teilnehmer werden sich aktiv an der Erstellung eines Klassifizierungsbaummodells mithilfe eines Jupyter-Notebooks beteiligen. Das Hauptziel besteht darin, einen Klassifizierungsbaum zu entwickeln, der als Werkzeug zur Festlegung von Handelsregeln auf der Grundlage der erwarteten positiven oder negativen zukünftigen Renditen dienen kann.

Die Verwendung eines Entscheidungsbaummodells im Handel ist eine wesentliche Technik des maschinellen Lernens, die ein immersives und interaktives Lernerlebnis bietet. Während der Sitzung haben die Teilnehmer die Möglichkeit, gemeinsam mit einem Dozenten direkt an einem Python-Notebook zu arbeiten.

Das Webinar zielt darauf ab, die folgenden Schlüsselbereiche abzudecken:

  • Ein Verständnis für die zugrunde liegenden Konzepte und die Intuition hinter verschiedenen Indikatoren erlangen und deren praktische Anwendung erlernen
  • Arbeiten mit Daten aus den US-Aktienmärkten zur Generierung wesentlicher Handelsindikatoren

Die aufgezeichnete Sitzung befasst sich mit der Frage, wie das Entscheidungsbaummodell im Handel genutzt werden kann, um wertvolle Handelsregeln zu ermitteln. Diese Regeln dienen als Grundlage für fundierte Entscheidungen darüber, wann Wertpapiere gekauft oder verkauft werden sollen.

Im Laufe des Videos erwerben die Teilnehmer Kenntnisse über:

  • Nutzung künstlicher Intelligenz (KI) und der Programmiersprache Python zur Vorhersage von Trends an den Aktienmärkten
  • Daten effektiv visualisieren, um Erkenntnisse zu gewinnen
  • Erstellen von Handelsregeln basierend auf zukünftigen Renditen mithilfe eines Entscheidungsbaummodells
  • Prädiktorvariablen und Zielvariablen verstehen, die Gründe für jeden technischen Indikator verstehen und diese effektiv umsetzen
  • Erkundung einer Reihe von Handelsindikatoren
  • Anwendung der erlernten Konzepte auf reale Daten der US-Aktienmärkte, um die notwendigen Handelsindikatoren zu entwickeln

Um den vollen Nutzen aus diesem Webinar ziehen zu können, sollten die Teilnehmer über Folgendes verfügen:

  • Technisches Wissen im Zusammenhang mit KI und maschinellem Lernen
  • Vorerfahrung im Handel
  • Ein solides Verständnis des Aktienmarktes und seiner Dynamik

Bei den Variablen beziehen sich die Prädiktorvariablen in diesem Zusammenhang auf die technischen Indikatoren, die zur Vorhersage von Markttrends eingesetzt werden. Andererseits gibt die Zielvariable den erwarteten Trend für den Folgetag an, nämlich ob dieser positiv oder negativ sein wird.

Predict Trends In Stock Markets Using AI And Python Programming
Predict Trends In Stock Markets Using AI And Python Programming
  • 2019.09.06
  • www.youtube.com
This session is a hands-on learning tutorial to Predict Trends using AI in the stock market, where you will work directly on a Jupyter Notebook to create a c...
 

Quantitative Portfoliomanagementstrategien von Prodipta Ghosh – 23. Juli 2019



Quantitative Portfoliomanagementstrategien von Prodipta Ghosh – 23. Juli 2019

Prodipta Ghosh, Vizepräsidentin für quantitatives Portfoliomanagement, betont, dass es aufgrund der Unsicherheiten auf den Finanzmärkten, der Dynamik des Marktes im Laufe der Zeit und der unterschiedlichen Ziele keine einheitliche Strategie für den Aktienhandel gibt und Risikobereitschaft des Einzelnen. Er betont, dass es selbst mit einer perfekten Vision oder einem perfekten Modell der Welt unmöglich wäre, Antworten auf die Fragen der Händler zu geben, da jede Person in einem einzigartigen Kontext agiert. Daher gibt es für niemanden auf der Welt eine perfekte Strategie.

Während seiner Präsentation befasst sich Prodipta Ghosh mit vier quantitativen Portfoliomanagementstrategien. Zu diesen Strategien gehören die Verwendung von Bollinger-Bändern, die Verwendung einer einfachen Crossover-Strategie mit gleitendem Durchschnitt, die Analyse des Doji-Candlestick-Musters und die Einbeziehung des Relative Strength Index (RSI). Während eine hohe Sharpe-Ratio theoretisch die beste Strategie vermuten lässt, kann die Leistung in der Vergangenheit nicht immer zukünftige Ergebnisse garantieren. Daher ist es von entscheidender Bedeutung, ein Portfolio aufzubauen, das verschiedene Strategien und Vermögenswerte umfasst, um Risiken zu mindern und erhebliche Verluste zu vermeiden. Ghosh demonstriert die Vorteile einer gleichmäßigen Kapitalallokation für alle vier Strategien und zeigt, wie ein diversifiziertes Portfolio Marktvolatilität standhalten und erhebliche Verluste verhindern kann.

Prodipta Ghosh erläutert die Grundlagen des Portfoliomanagements und unterscheidet es von der Investition in eine einzelne Aktie. Beim Portfoliomanagement geht es um die Entwicklung einer Strategie für mehrere Strategien oder Vermögenswerte unter Berücksichtigung von Risiken, Unsicherheiten, Zeitablauf und spezifischen Kontexten. Der Wert einer Strategie ergibt sich aus den zugrunde liegenden Renditen multipliziert mit den Positionen, während der Portfoliowert durch den gewichteten Strom der zugrunde liegenden Renditen bestimmt wird. Um das Portfoliomanagement zu optimieren, wird ein mathematisches Problem gelöst, indem eine Funktion U definiert wird, die vom Portfoliowert P abhängt, und die Gewichte W ermittelt werden, die U maximieren. Verschiedene Optimierungsstrategien, wie z. B. Mean-Varianz-Optimierung, Kelly-Optimierung und Risikostrafe Optimierung kann basierend auf der Definition von U und dem Optimierungsansatz eingesetzt werden.

Anschließend geht der Referent auf quantitative Portfoliomanagementstrategien und die Rolle von Optimierungsproblemen in diesem Prozess ein. Er untersucht die verschiedenen Einschränkungen, die in einem Optimierungsproblem angegeben werden können, wie z. B. die Begrenzung der Bandbreite eines Portfolios, und die Arten von Portfolios, die aufgebaut werden können, einschließlich solcher, die auf Alpha-Strategien, Faktor-Portfolios oder Sammlungen einzelner Aktien basieren. Das Ziel besteht darin, eine Maximierungsbedingung zu definieren, die zu einem Portfolio mit maximalem Wert oder einer Funktion des Portfoliowerts führt. Darüber hinaus geht der Referent auf die Frage ein, ob ein gleichgewichtetes Portfolio sinnvoll ist, was von konkreten Umständen abhängt und als Optimierungsproblem mit einem Abzug auf das Fehlerquadrat angesehen werden kann.

Prodipta Ghosh befasst sich mit dem Konzept von Risiko und Nutzen im Portfoliomanagement und beleuchtet die Herausforderungen bei der Schätzung erwarteter Renditen und Risiken. Er stellt die moderne Portfoliotheorie und den quadratischen Nutzen als Ansätze zur Renditemaximierung bei gleichzeitiger Risikominimierung vor. Der Redner nutzt das Beispiel des Saint-Pittsburgh-Paradoxons, um zu veranschaulichen, wie menschliche Entscheidungen von mathematischen Durchschnittswerten abweichen können.

Die Beziehung zwischen Nutzen und Risiko wird von Prodipta Ghosh erläutert, die deren Bedeutung für den Aufbau eines soliden Portfolios hervorhebt. Er demonstriert das Konzept der Risikoprämie, das die Differenz zwischen der erwarteten Auszahlung oder Rendite einer riskanten Investition und dem Betrag quantifiziert, den eine Person für eine bestimmte Zahlung zu akzeptieren bereit ist. Darüber hinaus erklärt er, dass eine Nutzenfunktion eine mathematische Darstellung des Vermögens ist, die Auskunft darüber gibt, wie viel ein zusätzlicher Dollar wert ist, und dabei hilft, angemessene Investitionsbeträge zu bestimmen. Das Verständnis des Zusammenspiels zwischen Nutzen und Risiko ermöglicht es Anlegern, Portfolios zu entwickeln, die ein Gleichgewicht zwischen Risiko und Rendite herstellen.

Der Referent erörtert den Begriff der Risikoaversion bei Investitionen, der darauf hindeutet, dass Anleger bestimmte Anlagen gegenüber solchen mit schwankenden Renditen bevorzugen. Eine gängige Annahme im quantitativen Portfoliomanagement ist die Risikoaversion, wobei die Risikoprämie durch den griechischen Buchstaben Pi dargestellt wird. Diese Prämie bezeichnet den Betrag, den ein Anleger zu zahlen bereit ist, um eine schwankende Rendite von Null zu akzeptieren. Anschließend erklärt der Referent die quadratische Nutzenfunktion und wie sie zur Optimierung des Mittelwerts und der Varianz eines Portfolios führt. Beim Aufbau eines Portfolios auf der Grundlage der modernen Portfoliotheorie geht es darum, ein Gleichgewicht zwischen Mittelwert und Varianz des Portfolios zu finden.

Prodipta Ghosh erklärt dann den Prozess der Optimierung des erwarteten Portfolionutzens durch die Herstellung eines Gleichgewichts zwischen Mittelwert und Varianz. Er verwendet Excel, um Renditen verschiedener Vermögenswerte zu simulieren und berechnet die Kovarianzmatrix, die dann verwendet wird, um Portfoliorenditen, Varianz und Risiko basierend auf unterschiedlichen Gewichtungen zu bestimmen. Durch Variation der Gewichte und Berechnung der Portfoliorendite und -varianz für alle möglichen Szenarien kann ein Optimierungsproblem gelöst werden. Das resultierende Diagramm zeigt die Sharpe-Ratio, die das Verhältnis von Rendite zu Risiko darstellt, für jeden Gewichtungssatz.

Anschließend wird das Konzept der Effizienzgrenzen in der modernen Portfoliotheorie von Prodipta Ghosh vorgestellt. Er beschreibt die Effizienzgrenze als den Bereich, in dem ein Portfolio liegen sollte, um bei gegebener Risikotoleranz maximale Renditen zu erzielen. Er erklärt weiter, dass die Hinzufügung eines risikoarmen Vermögenswerts, beispielsweise eines risikofreien Vermögenswerts, dem Konzept eine interessante Dimension hinzufügt. Die höchste Sharpe-Ratio wird anhand des Tangentenportfolios ermittelt, bei dem es sich um das Portfolio handelt, das durch die Kombination des risikofreien Vermögenswerts mit der Effizienzgrenze gebildet wird. Die Linie, die Null mit dem Tangentenportfolio verbindet, wird als Marktlinie bezeichnet und bietet bei der Festlegung der Allokation die Wahl zwischen einer Investition in das Marktportfolio oder der Entscheidung für einen risikofreien Vermögenswert.

Prodipta Ghosh befasst sich mit dem Capital Asset Pricing Model (CAPM), das die Perspektive des Risikos im Finanzwesen verändert, indem es es als Beitrag zum Marktportfolio und nicht als eigenständiges Risiko misst. CAPM erfasst die erforderliche Rendite für einen risikoreichen Vermögenswert, berechnet als risikofreier Zinssatz zuzüglich eines Beitrags zum Marktportfolio in Bezug auf das Risiko, multipliziert mit der Differenz zwischen der Marktrendite und der risikofreien Rendite. Dieses Konzept bietet eine theoretische Grundlage für Value Investing. Durch verschiedene Modelle, wie zum Beispiel Discounted-Cashflow- und Kompressionsmodelle, können Anleger mithilfe von CAPM einen fairen Preis schätzen und von einem besseren Verständnis des idiosynkratischen Risikos profitieren.

Der Referent diskutiert verschiedene Portfoliomanagementstrategien, mit besonderem Fokus auf Faktorinvestitionen. Beim Factor Investing müssen beim Aufbau eines Portfolios mehrere Risikofaktoren berücksichtigt werden, die über das reine Marktrisiko hinausgehen. Mit jedem Faktor ist eine Prämie verbunden, die zu unterschiedlichen Anlagestilen führt, einschließlich Faktorallokation, Faktor-Timing oder einer Rückkehr zu Value-Investitionen und Aktienauswahl. Faktorinvestitionen helfen bei der Erklärung idiosynkratischer Risiken und bieten eine neue Interpretation von Alpha und Beta, wobei Alpha und Beta zum gesamten Alpha werden, wenn das Delta F in der Gleichung zeitinvariant und positiv ist.

Prodipta Ghosh beleuchtet die großen Unterschiede zwischen Value Investing und Factor Investing und überlegt, welcher Ansatz für Einzelhändler sinnvoller ist. Er weist darauf hin, dass Value-Investitionen umfassende Recherchen zu einzelnen Unternehmen erfordern und oft eine Konzentration auf idiosynkratische Risiken mit sich bringen, was für kleine Einzelhändler möglicherweise nicht geeignet ist. Andererseits geht es beim Factor Investing darum, die Risikotreiber des Marktes zu erforschen und sie systematisch zu nutzen, um Investitionen auf der Grundlage erwarteter Renditen zuzuteilen. Der Redner geht kurz auf die Unterschiede zwischen diskretionärer und quantitativer Forschung ein und stellt fest, dass quantitatives Management bei richtiger Anwendung mehr Möglichkeiten für eine Outperformance bieten kann.

Der Redner vergleicht Value-Investoren und quantitative Strategen und stellt fest, dass Value-Investoren zwar eine geringere Erfolgswahrscheinlichkeit haben, aber das Potenzial haben, erhebliche Renditen zu erzielen. Quant-Strategen hingegen haben eine höhere Erfolgswahrscheinlichkeit, erzielen aber vergleichsweise geringere, aber konstante Renditen. Das Grundgesetz der Kapitalanlage beschreibt das Informationsverhältnis als das Verhältnis der Überperformance dividiert durch das Risiko des Portfolios und entspricht dem Informationskoeffizienten oder dem Fähigkeitsniveau multipliziert mit der Quadratwurzel von n, wobei n die Anzahl der unabhängigen Wetten darstellt, die abgeschlossen werden können. Quantitative Anleger können über eine höhere Anzahl von n verfügen, was ihnen die Optimierung eines Faktorportfolios ermöglicht. Ghosh geht auch auf andere Optimierungsmethoden wie KD-Optimierungen oder Risikoparitätsoptimierungen ein, die darauf abzielen, das Endvermögen über mehrere Zeiträume durch die Anhäufung von Vermögen zu maximieren.

Prodipta Ghosh geht weiter auf die Kelly-Portfoliostrategie ein und betont deren Dominanz auf lange Sicht aufgrund ihres Fokus auf die Maximierung des Endvermögens. Allerdings weist er darauf hin, dass die Kelly-Strategie auch hinsichtlich des Risikos am aggressivsten ist und möglicherweise nicht für Rentner oder Personen geeignet ist, die sich kurzfristige Risiken nicht leisten können. Darüber hinaus erläutert er die Risikoparitätsstrategie, die darauf abzielt, die einzelnen Risikobeiträge auszugleichen und dafür zu sorgen, dass die Summe der Risiken aller Vermögenswerte ausgeglichen bleibt. Obwohl es für diesen Ansatz keine theoretische Rechtfertigung gibt, wird er als sinnvolle Risikoverteilung angesehen. Bei der Entscheidung zwischen der Kelly-Strategie, der Risikoparität und der Mittelwert-Varianz-Optimierung müssen die Risikobereitschaft und die Genauigkeit der Modellierung berücksichtigt werden, die durch Faktormodellierung verbessert werden kann. Letztlich geht es bei diesen Strategien um die Abwägung von Risiko und Rendite, wobei der Schwerpunkt auf der effektiven Messung und Steuerung von Risiken liegt.

Prodipta Ghosh geht weiter auf das Thema Alpha-Strategien und deren Kombination ein, um ein abgerundetes Portfolio zu schaffen. Während Mittelwert-Varianz-Optimierungen für Alpha-Strategien eingesetzt werden können, stoßen sie auf das Problem, dass die gesamte Allokation im Portfolio einer einzigen, besten Strategie zugewiesen wird, die ausschließlich auf historischen Daten basiert. Um dieses Problem auszuräumen, führt Ghosh das Konzept der In-Sample-Strategien ein, bei denen alle Strategien die gleiche Stimme erhalten. Ein weiterer Ansatz ist das Reue-Switching-Portfolio, bei dem Techniken zur Änderungsanalyse wie Hidden-Markov-Modelle oder Änderungspunktanalysen zum Einsatz kommen, um Kapital auf verschiedene Alpha-Strategien aufzuteilen. Eine bemerkenswerte Technik ist der No-Regret-Ansatz, der das Explorations- versus Exploitation-Problem angeht, indem jede Alpha-Strategie systematisch untersucht wird, um diejenige mit dem größten Potenzial zu identifizieren, bevor massiv in sie investiert wird.

Prodipta Ghosh betont, dass für die weitere Erforschung der Portfoliooptimierung zahlreiche Ressourcen zur Verfügung stehen, darunter Plattformen wie Wikipedia und der kürzlich gestartete Kurs von Contra zum quantitativen Portfoliomanagement. Er erwähnt mehrere Möglichkeiten zum Lernen und Wachstum in der Branche durch die Programme von Contra, wie zum Beispiel ihr interaktives Lernportal zum Selbststudium und Blue Shift, das kostenloses Backtesting anbietet. Ghosh bedankt sich beim Publikum für seine Teilnahme und ermutigt es, die Website von Contra zu besuchen, um weitere Informationen und Ressourcen zu erhalten.

  • 00:00:00 Prodipta Ghosh, Vizepräsidentin für quantitatives Portfoliomanagement, erklärt, dass es keine einheitliche Strategie für den Aktienhandel gibt, da auf den Finanzmärkten Unsicherheiten bestehen, sich der Markt im Laufe der Zeit verändert und Einzelpersonen unterschiedliche Ziele haben Risikobereitschaft. Er weist darauf hin, dass es selbst mit einer perfekten Vision oder einem perfekten Modell der Welt nicht möglich wäre, Antworten auf die Art von Fragen zu finden, die Händler stellen, da jeder einen anderen Kontext hat. Daher gibt es für niemanden auf der Welt die perfekte Strategie.

  • 00:05:00 Prodipta Ghosh diskutiert vier quantitative Portfoliomanagementstrategien, darunter die Verwendung von Bollinger-Bändern, einer einfachen Crossover-Strategie mit gleitendem Durchschnitt, einem Doji-Candlestick-Muster und dem Relative Strength Index (RSI). Während theoretisch die beste Strategie eine mit einer hohen Sharpe-Ratio ist, ist die Leistung in der Vergangenheit nicht immer eine Garantie für zukünftige Ergebnisse. Daher ist der Aufbau eines Portfolios aus verschiedenen Strategien und Vermögenswerten von entscheidender Bedeutung, um große Verluste zu vermeiden und Risiken zu mindern. Durch die gleichmäßige Kapitalallokation auf alle vier Strategien zeigt Ghosh, wie ein diversifiziertes Portfolio angesichts der Marktvolatilität erhebliche Verluste vermeiden kann.

  • 00:10:00 Prodipta Ghosh erklärt die Grundlagen des Portfoliomanagements und wie es sich von der Investition in eine einzelne Aktie unterscheidet. Beim Portfoliomanagement geht es darum, eine Strategie für mehrere Strategien oder Vermögenswerte zu erstellen, die sich mit Risiken und Unsicherheiten, dem Zeitablauf und dem Kontext befasst. Der Wert einer Strategie wird durch die zugrunde liegenden Renditen multipliziert mit den Positionen bestimmt. Andererseits ist der Portfoliowert der gewichtete zugrunde liegende Renditestrom. Das Portfoliomanagement löst ein mathematisches Problem, indem es eine Funktion U definiert, die eine Funktion des Portfoliowerts P ist, und die Gewichte W ermittelt, die die Maximierungsbedingung erfüllen, um U zu maximieren. Abhängig davon, wie U definiert ist und wie die Optimierung durchgeführt wird, gibt es kann eine Vielzahl von Möglichkeiten für Optimierungsstrategien sein, wie z. B. Mittelwert-Varianz-Optimierung, Kelly-Optimierung und Risikostrafenoptimierung.

  • 00:15:00 Der Referent diskutiert quantitative Portfoliomanagementstrategien und wie Optimierungsprobleme dabei eine Rolle spielen. Er spricht über die Arten von Einschränkungen, die man in einem Optimierungsproblem festlegen kann, wie z. B. die Begrenzung der Bandbreite eines Portfolios, und über die verschiedenen Arten von Portfolios, die aufgebaut werden können, darunter solche, die auf Alpha-Strategien, Faktorportfolios oder einer Sammlung einzelner Portfolios basieren Aktien. Ziel ist es, eine Maximierungsbedingung zu definieren, die zu einem Portfolio mit einem Maximalwert oder einer Funktion des Portfoliowerts führt. Der Referent geht auch auf die Frage ein, ob ein gleichgewichtetes Portfolio sinnvoll ist, was von konkreten Umständen abhängt und als Optimierungsproblem mit einem Abzug auf das Fehlerquadrat betrachtet werden kann.

  • 00:20:00 Prodipta Ghosh diskutiert das Konzept von Risiko und Nutzen im Portfoliomanagement. Er erklärt, dass es zwar einfach erscheint, die erwarteten Renditen und Risiken abzuschätzen, in Wirklichkeit jedoch recht schwierig sein kann. Er stellt das Konzept der modernen Portfoliotheorie und des quadratischen Nutzens vor, die auf eine Maximierung der Rendite bei gleichzeitiger Minimierung des Risikos abzielen. Er verwendet auch das Beispiel des Saint-Pittsburgh-Paradoxons, um zu veranschaulichen, dass Menschen Entscheidungen möglicherweise nicht immer auf der Grundlage mathematischer Durchschnittswerte treffen.

  • 00:25:00 Prodipta Ghosh erklärt den Zusammenhang zwischen Nutzen und Risiko und wie sie zu einem guten Portfolio führen. Er demonstriert das Konzept der Risikoprämie, das die Differenz zwischen der erwarteten Auszahlung oder Rendite einer riskanten Investition und dem Betrag misst, den eine Person für eine bestimmte Zahlung bereit wäre. Er erklärt auch, dass eine Nutzenfunktion eine mathematische Funktion des Vermögens ist, die uns sagt, wie viel ein zusätzlicher Dollar wert ist, und bei der Bestimmung des zu zahlenden Betrags hilft. Durch das Verständnis der Beziehung zwischen Nutzen und Risiko können Anleger ein gutes Portfolio aufbauen, das Risiko und Rendite in Einklang bringt.

  • 00:30:00 Der Referent geht auf das Konzept der Risikoaversion bei Investitionen ein, was bedeutet, dass Anleger bestimmte Investitionen gegenüber schwankenden bevorzugen. Risikoaversion ist eine gängige Annahme im quantitativen Portfoliomanagement, und die Risikoprämie ist der Wert eines griechischen Buchstabens namens Pi, der den Betrag darstellt, den ein Anleger zu zahlen bereit ist, um eine schwankende Rendite von Null zu akzeptieren. Anschließend erklärt der Referent die quadratische Nutzenfunktion und wie sie zur Optimierung des Mittelwerts und der Varianz eines Portfolios führt. Beim Aufbau eines Portfolios auf der Grundlage der modernen Portfoliotheorie geht es darum, ein Gleichgewicht zwischen Mittelwert und Varianz des Portfolios zu finden.

  • 00:35:00 Prodipta Ghosh erklärt den Prozess der Optimierung des erwarteten Portfolionutzens durch Ausgleich von Mittelwert und Varianz. Er verwendet Excel, um Renditen verschiedener Vermögenswerte zu simulieren und die Kovarianzmatrix zu berechnen, die dann zur Berechnung von Portfoliorenditen, Varianz und Risiko basierend auf unterschiedlichen Gewichtungen verwendet wird. Durch Variation der Gewichte und Berechnung der Portfoliorendite und -varianz für alle möglichen Fälle kann ein Optimierungsproblem gelöst werden. Das resultierende Diagramm zeigt die Sharpe-Ratio, das Verhältnis von Rendite zu Risiko, für jeden Gewichtungssatz.

  • 00:40:00 Prodipta Ghosh erklärt das Konzept effizienter Grenzen in der modernen Portfoliotheorie. Er erläutert, dass die Effizienzgrenze der Bereich ist, in dem ein Portfolio liegen sollte, um basierend auf der gegebenen Risikotoleranz maximale Renditen zu erzielen. Er erklärt weiter, dass das Konzept interessanter wird, wenn ein Kreditrisiko-Asset, beispielsweise ein risikofreier Vermögenswert, hinzugefügt wird und die höchste Sharpe-Ratio aus dem Tangentenportfolio ausgewählt wird. Er beschreibt auch die Linie, die Null mit dem Tangentenportfolio verbindet, als Marktlinie und erklärt, wie es zu einer Wahl zwischen dem Kauf des Marktportfolios und dem Kauf eines risikofreien Vermögenswerts kommt und wie die Allokationen festgelegt werden.

  • 00:45:00 Prodipta Ghosh erklärt das Capital Asset Pricing Model (CAPM). CAPM verändert das Risikokonzept im Finanzwesen und misst das Risiko als Beitrag zum Marktportfolio und nicht als eigenständiges Risiko. Mithilfe mathematischer Gleichungen erfasst CAPM die erforderliche Rendite für einen risikoreichen Vermögenswert. Dabei handelt es sich um den risikofreien Zinssatz zuzüglich eines Beitrags zum Marktportfolio in Bezug auf das Risiko, multipliziert mit der Differenz zwischen der Marktrendite und dem risikofreien Zinssatz zurückkehren. Dieses Konzept bietet eine theoretische Grundlage für Value Investing. Durch verschiedene Modelle, darunter Discounted-Cashflow- und Kompressionsmodelle, schätzen Anleger mithilfe von CAPM einen fairen Preis und profitieren von ihrem besseren Verständnis des idiosynkratischen Risikos.

  • 00:50:00 Prodipta Ghosh diskutiert verschiedene Portfoliomanagementstrategien mit Schwerpunkt auf Faktorinvestitionen. Beim Factor Investing geht es darum, beim Aufbau eines Portfolios mehrere Risikofaktoren und nicht nur das Marktrisiko zu berücksichtigen. Ghosh erklärt, dass mit jedem Faktor eine Prämie verbunden ist und dies zu unterschiedlichen Anlagestilen führt, einschließlich der Faktorallokation, des Faktor-Timings oder einfach der Rückkehr zum Value-Investing und zur Aktienauswahl, wenn alles klar ist. Faktorinvestitionen helfen, das idiosynkratische Risiko zu erklären und bieten eine neue Interpretation von Alpha und Beta, wobei Alpha und Beta zum Gesamt-Alpha werden, wenn das Delta F in der Gleichung zeitinvariant und zusammen mit Beta positiv ist.

  • 00:55:00 Prodipta Ghosh erörtert die Hauptunterschiede zwischen Value-Investing und Factor-Investing und welche davon für einen Einzelhändler sinnvoller ist. Ghosh weist darauf hin, dass Value Investing ein hohes Maß an Recherche zu einzelnen Unternehmen erfordert und in der Regel eine Konzentration idiosynkratischer Risiken mit sich bringt, was für kleine Einzelhändler möglicherweise nicht geeignet ist. Andererseits geht es beim Factor Investing darum, die Markttreiber des Risikos zu erforschen und diese systematisch nach Faktoren zu untersuchen, um Investitionen auf der Grundlage der erwarteten Rendite zuzuteilen. Ghosh geht auch kurz auf die Unterschiede zwischen diskretionärer und quantitativer Forschung ein und erklärt, dass quantitatives Management bei richtiger Anwendung mehr Möglichkeiten für eine Outperformance bieten kann.

  • 01:00:00 Prodipta Ghosh erklärt den Unterschied zwischen Value-Investoren und quantitativen Strategen. Während Value-Investoren eine geringe Erfolgswahrscheinlichkeit haben, aber Multi-Bagger generieren können, haben Quant-Strategen eine hohe Erfolgswahrscheinlichkeit, erwirtschaften aber vergleichsweise geringere, aber konstante Renditen. Das grundlegende Anlagegesetz beschreibt die Informationsquote als Verhältnis der Überperformance dividiert durch das Risiko des Portfolios, was dem Informationskoeffizienten oder dem Fähigkeitsniveau multipliziert mit der Quadratwurzel von n entspricht, wobei n die Anzahl der unabhängigen Wetten ist, die angenommen werden können. Dadurch kann ein quantitativer Investor eine höhere n-Anzahl haben und somit ein Fabrikportfolio optimieren. Darüber hinaus erläutert Ghosh andere Optimierungsmethoden wie KD-Optimierungen oder Risikoparitätsoptimierungen, die versuchen, das Endvermögen über mehrere Zeiträume durch die Anhäufung von Vermögen zu maximieren.

  • 01:05:00 Der Redner erklärt die Kelly-Portfoliostrategie und ihre langfristige Dominanz aufgrund ihres Fokus auf die Maximierung des Endvermögens. Allerdings ist es auch risikomäßig am aggressivsten, sodass es nicht für Rentner oder Menschen geeignet ist, die sich kurzfristige Risiken nicht leisten können. Der Referent geht außerdem auf die Risikoparitätsstrategie ein, die die einzelnen Risikobeiträge gleichsetzt und fordert, dass die Summe aller Risiken des Vermögens gleich sein sollte. Dafür gibt es keine theoretische Begründung, es wird aber als sinnvolle Risikoverteilung angesehen. Bei der Entscheidung zwischen Kelly, Risikoparität und Mittelwert-Varianz-Optimierung sollte man die Risikobereitschaft und die Genauigkeit der Modellierung berücksichtigen, die durch Faktormodellierung verbessert werden kann. Bei diesen Strategien geht es um den Ausgleich von Risiko und Ertrag, wobei der Schwerpunkt auf der Messung und dem Management von Risiken wichtiger ist.

  • 01:10:00 Der Referent diskutiert das Thema Alpha-Strategien und wie man diese zu einem guten Portfolio kombiniert. Während Mittelwert-Varianz-Optimierungen für Alpha-Strategien verwendet werden können, besteht das Problem, dass die gesamte Allokation im Portfolio einer einzigen, besten Strategie zugute kommt, die lediglich auf historischen Daten basiert. Eine Möglichkeit, dieses Problem anzugehen, besteht darin, In-Sample-Strategien zu verwenden, bei denen alle Strategien die gleiche Stimme haben. Ein weiterer Ansatz ist das „Regret-Switching-Portfolio“, das Veränderungsanalysetechniken wie Hidden-Markov-Modelle oder Change-Point-Analysen nutzt, um Kapital zwischen verschiedenen Alpha-Strategien zu verteilen. Eine besondere Technik nennt sich „No Regret“. Dabei handelt es sich um ein Explorations- versus Exploitation-Problem, bei dem das Ziel darin besteht, jede Alpha-Strategie zu erkunden und herauszufinden, welche das größte Potenzial hat, bevor man sich intensiv darauf einlässt.

  • 01:15:00 Der Redner diskutiert verschiedene Ansätze zur Portfoliooptimierung, einschließlich der Verwendung einer exponentiellen Gewichtung und einer Lernrate, um Exploitation und Exploration in Einklang zu bringen. Er erwähnt auch, dass zu diesem Thema viele Ressourcen verfügbar sind, darunter Wikipedia und Contras kürzlich gestarteter Kurs zum quantitativen Portfoliomanagement. Darüber hinaus spricht der Redner über verschiedene Lern- und Wachstumsmöglichkeiten in der Branche durch die Programme von Contra, darunter das interaktive Lernportal zum Selbststudium und Blue Shift, das kostenloses Backtesting bietet. Abschließend dankt er dem Publikum für seine Teilnahme und ermutigt es, für weitere Informationen die Website von Contra zu besuchen.
Quantitative Portfolio Management Strategies By Prodipta Ghosh - July 23, 2019
Quantitative Portfolio Management Strategies By Prodipta Ghosh - July 23, 2019
  • 2019.07.24
  • www.youtube.com
Session Outline:- Difference between buying a stock and creating a portfolio?- How should one make investment decisions?- How to optimize a portfolio for bet...
 

Algorithmischer Handel | Ist es das Richtige für Sie und wie fangen Sie an?



Algorithmischer Handel | Ist es das Richtige für Sie und wie fangen Sie an?

Meine Damen und Herren, ich möchte Nathan, den Mitbegründer von Elle Foam Advisory, vorstellen, der wertvolle Einblicke in die faszinierende Welt des algorithmischen Handels geben wird. Nathan beginnt seinen Vortrag mit der Definition des algorithmischen Handels und der Hervorhebung seiner Bedeutung in der Finanzbranche. Er erklärt, dass algorithmischer Handel den Einsatz von Computeralgorithmen zur automatischen Ausführung von Geschäften beinhaltet und in modernen Märkten eine entscheidende Rolle spielt.

Anschließend erörtert Nathan die sich entwickelnde Natur des algorithmischen Handels und wie seine Definition je nach geografischem Standort und regulatorischen Rahmenbedingungen variieren kann. In den Vereinigten Staaten fällt jede Form des systematischen Handels unter den Oberbegriff des algorithmischen Handels. In anderen Regionen spricht man jedoch ausdrücklich vom algorithmischen Handel, wenn Computeralgorithmen die Auftragsparameter selbstständig bestimmen. Diese Unterscheidung betont die vielfältigen Ansätze und Perspektiven innerhalb des Fachgebiets.

Anschließend beleuchtet der Referent die aktuellen Branchentrends im algorithmischen Handel. Er hebt die zunehmende Verbreitung von DIY-Händlern (Do-It-Yourself-Händlern) hervor, die algorithmische Strategien nutzen. Darüber hinaus präsentiert Nathan Daten, die das signifikante Marktanteilswachstum des algorithmischen Handels in Asien, den Vereinigten Staaten und Indien belegen. Trotz dieses Wachstums räumt er ein, dass die Beteiligung des Einzelhandels am algorithmischen Handel nach wie vor relativ gering ist, und verspricht, dieses Phänomen in den kommenden Folien zu erklären.

Im weiteren Verlauf untersucht Nathan die Auswirkungen des algorithmischen Handels auf den Arbeitsmarkt. Er erklärt, wie die Automatisierung menschliche Händler ersetzt und Unternehmen jetzt nach Programmierern suchen, die ausgefeilte Handelsstrategien entwickeln und die Leistungsfähigkeit von Maschinen nutzen. Der Redner betont vier Hauptvorteile des maschinellen Handels gegenüber dem menschlichen Handel: Betriebszeit, Reaktionszeit, Skalierbarkeit und die Fähigkeit zu lernen und sich zu verbessern. Maschinen können Risiken kontinuierlich überwachen, Geschäfte zeitnah ausführen, sich effizient an Marktveränderungen anpassen und effektiver aus ihren Erfahrungen lernen als menschliche Händler.

Nathan geht auf die geringe Beteiligung des Einzelhandels am algorithmischen Handel ein und nennt mehrere Gründe für diese Diskrepanz. Erstens erfordert der algorithmische Handel eine Kombination aus technischem Wissen, einschließlich Codierung und Statistik, mit einem soliden Verständnis der Finanzen und Marktdynamik. Zweitens ist der Zugang zu relevanten Marktdaten für Backtesting und die Entwicklung robuster Strategien von entscheidender Bedeutung. Schließlich kann der Übergang vom manuellen Handel zum algorithmischen Handel ohne die Anleitung erfahrener Marktexperten, die über praktisches Fachwissen auf diesem Gebiet verfügen, eine Herausforderung sein. Trotz dieser Hindernisse hebt Nathan die unbestreitbaren Vorteile des algorithmischen Handels hervor, wie Skalierbarkeit, effektives Risikomanagement und die Eliminierung menschlicher Fehler, was ihn zu einer attraktiven Option für Händler macht.

Anschließend stellt Nathan dem Publikum den von Point Density angebotenen EPAct-Kurs vor. Er erörtert die Schwierigkeit, eine Plattform zu finden, die umfassende Unterstützung für den algorithmischen Handel bietet und Anleitungen von Marktpraktikern, technisches Wissen und aktuelle Inhalte umfasst. Der EPAct-Kurs zielt darauf ab, diese Lücke zu schließen, indem er umfangreiche, von Branchenexperten erstellte Inhalte bietet, die kontinuierlich aktualisiert werden, um die neuesten Trends widerzuspiegeln. Der Kurs bietet außerdem engagierte Unterstützung durch die Fakultät und verfolgt einen marktorientierten Ansatz, was ihn zu einer idealen Ressource sowohl für Einsteiger, die sich in den algorithmischen Handel wagen, als auch für diejenigen, die ihre Karriere in diesem Bereich vorantreiben möchten, macht.

Nathan führt den Kursinhalt weiter aus und erläutert die Module, die im Programm für algorithmischen Handel behandelt werden. Der Kurs beginnt mit einem Einführungsmodul, das eine Grundlage mit grundlegender Statistik, Wahrscheinlichkeitstheorie und der Anwendung von Finanzmodellen schafft. Anschließend werden Python-Grundlagen und erweiterte Statistiken behandelt, einschließlich Gaußscher Modelle, die zum Verständnis komplexer Strategien verwendet werden. Der Kurs umfasst auch Sitzungen zum Erstellen von Lebensläufen, zum Einrichten eines persönlichen Trading Desks und zur Durchführung von Probeinterviews für Praktika bei über 100 Partnerunternehmen. Während des gesamten Kurses unterstützt der Dozent die Studierenden persönlich und stellt sicher, dass etwaige Fragen oder Schwierigkeiten umgehend gelöst werden. Darüber hinaus gewährt die Teilnahme am EPAct-Kurs exklusive Vorteile, einschließlich Zugang zu Community-Events und -Funktionen, die in den kommenden Abschnitten näher erläutert werden.

Nathan setzt seine Präsentation fort und geht auf die Details der einzelnen Module des Kurses zum algorithmischen Handel ein. Der Kurs beginnt mit dem Modul „Bausteine“, das die Grundlage für das Verständnis von Gerechtigkeitseffekten und zukünftigen Strategien legt. Die Studierenden nehmen an praktischen Übungen teil, um verschiedene Handelsstrategien zu entwickeln. Anschließend befasst sich das Programm mit der Mikrostruktur und Implementierung des Marktes und untersucht die Feinheiten von Backtesting-Ideen anhand historischer Daten mithilfe verschiedener APIs und Broker. Maschinelles Lernen wird auch als aufstrebendes Feld im algorithmischen Handel eingeführt. Die Bedeutung des Handels und der Frontoperationen wird hervorgehoben, wobei ein spezielles Modul sich auf den Aufbau einer algorithmischen Handelsinfrastruktur konzentriert. Der Kurs behandelt auch Optionshandel, Portfoliooptimierung und Risikomanagement. Abschließend führen die Studierenden ein Projekt durch und erhalten nach erfolgreichem Bestehen der Prüfung ein verifiziertes Zertifikat, das ihre Fachkenntnisse im algorithmischen Handel bestätigt.

Anschließend lenkt Nathan die Aufmerksamkeit des Publikums auf das Algorithmic Trading-Programm von QuantInsti. Er betont, dass die Teilnehmer nach Abschluss des Programms ein verifiziertes Wirkungszertifikat erhalten, nachdem sie einen umfassenden Kurs von mehr als 300 Stunden absolviert haben. Die Fakultät besteht aus renommierten Fachleuten der Branche, die zugänglich sind und praktische Erfahrung in verschiedenen Anlageklassen und Rollen bieten. Der Kurs deckt verschiedene Aspekte ab, die von der Lebenslauferstellung bis hin zur Bereitstellung des Zugriffs auf APIs und Maklernetzwerke für eine nahtlose Implementierung reichen. Darüber hinaus unterstützt das QuantInsti-Team die Teilnehmer bei Möglichkeiten zur Mittelbeschaffung, was es zur idealen Wahl für diejenigen macht, die eine umfassende Ausbildung im algorithmischen Handel anstreben.

Im Anschluss an Nathans Diskussion betritt Nadine die Bühne, um das Publikum über die Vorteile der Mitgliedschaft in der EPAT-Community aufzuklären. Sie betont die lebenslange Beratung, die den Mitgliedern der Gemeinschaft zur Verfügung steht, sowie die Möglichkeit, mit Kommilitonen aus über 165 Ländern in Kontakt zu treten. Zu den Privilegien der Community gehören exklusive Veranstaltungen und Sitzungen, kostenloser und subventionierter Zugang zu Brokern und Zugang zu Backtesting-Tools wie BlueShift. Darüber hinaus erweitert EPAT die vorhandenen Fähigkeiten einer Person um eine grundlegende quantitative Dimension und verbessert so ihr berufliches Profil. Insbesondere wird das EPAT-Programm im Rahmen des Finanzausbildungsprogramms anerkannt und Berufstätige in Singapur können von einer Erstattung in Höhe von 2.000 Singapur-Dollar profitieren.

Zum Abschluss der Präsentation teilt Ben Magnano seine persönliche Reise im algorithmischen Handel. Er erzählt von seinen frühen Schwierigkeiten mit dem Daytrading im Jahr 2005, bis er QuantInsti gründete, wo er eine gründliche Ausbildung in den Grundlagen des quantitativen und algorithmischen Handels erhielt. Ben betont, wie wichtig es ist, Python zu lernen und eigene Programme schreiben zu können, um schließlich sein Zertifikat als quantitativer Händler zu erwerben. Dieser Erfolg öffnete ihm Türen und führte zu einer Chance als Forschungsberater bei WorldQuant, wo er seine Programmierfähigkeiten weiter verfeinert und über die neuesten Branchentrends wie künstliche Intelligenz auf dem Laufenden bleibt.

In den letzten Momenten des Videos erkennt der Redner das enorme Wachstum des algorithmischen Handels an und wie er zunehmend von Händlern bevorzugt wird, die den Bedarf an ständiger Überwachung minimieren möchten. Der Redner bedankt sich für die außergewöhnliche Analyse der Referenten und würdigt die wertvollen Erkenntnisse, die während der Präsentation vermittelt wurden. Am Ende des Videos fasst der Redner das ePAD-Programm zusammen, das darauf ausgelegt ist, den Teilnehmern industrietaugliche Fähigkeiten im quantitativen und FinTech-Bereich zu vermitteln und sicherzustellen, dass sie gut vorbereitet sind, um im Bereich des algorithmischen Handels erfolgreich zu sein.

  • 00:00:00 In diesem Abschnitt stellt der Moderator Nathan vor, den Mitbegründer von Elle Foam Advisory, der über algorithmischen Handel sprechen wird. Nathan definiert zunächst, was algorithmischer Handel ist und warum er wichtig ist. Außerdem spricht er über die Branchentrends und die Karriereaussichten im algorithmischen Handel. Abschließend erörtert Nathan, wie das Quantity-Programm Einzelpersonen beim Einstieg oder beim Aufbau einer Karriere im algorithmischen Handel helfen kann. Abschließend versichert er dem Publikum, dass er während der gesamten Präsentation ihre Fragen beantworten wird.

  • 00:05:00 In diesem Abschnitt diskutiert der Redner die Definition des algorithmischen Handels und wie er sich je nach Geographie und Vorschriften unterscheidet. In den USA gilt jeder systematische Handel als algorithmischer Handel, während er in anderen Regionen nur dann als algorithmisch betrachtet werden kann, wenn ein Computer die Auftragsparameter automatisch bestimmt. Der Redner stellt fest, dass sich der algorithmische Handel schnell weiterentwickelt und zu einem Anstieg des Handels durch DIY-Händler beigetragen hat. Der Redner präsentiert auch Daten, die zeigen, dass der Marktanteil des algorithmischen Handels in Asien, den USA und Indien erheblich gestiegen ist, die Beteiligung des Einzelhandels am algorithmischen Handel jedoch weiterhin gering ist. Der Redner verspricht, in den kommenden Folien zu erklären, warum dies so ist.

  • 00:10:00 In diesem Abschnitt diskutiert der Redner den Aufstieg des algorithmischen Handels und wie er sich auf den Arbeitsmarkt auswirkt. Er erklärt, wie der algorithmische Handel automatisiert wird und menschliche Händler ersetzt und wie Unternehmen jetzt Programmierer einstellen, um ihre Strategien zu entwickeln und Maschinen handeln zu lassen. Der Redner hebt vier Hauptvorteile des maschinellen Handels gegenüber dem menschlichen Handel hervor, wie z. B. Betriebszeit, Reaktionszeit, Skalierbarkeit und die Fähigkeit zu lernen und sich zu verbessern. Er argumentiert, dass Maschinen Risiken überwachen, Geschäfte tätigen und schneller und effizienter auf Marktveränderungen reagieren können als menschliche Händler.

  • 00:15:00 In diesem Abschnitt erörtert der Redner die Gründe, warum die Beteiligung des Einzelhandels am algorithmischen Handel trotz seiner zunehmenden Popularität und Vorteile immer noch gering ist. Erstens erfordert der algorithmische Handel neben Finanz- und Marktverständnis auch technische Kenntnisse wie Codierung und Statistik. Zweitens ist der Zugriff auf relevante Marktdaten für Backtesting und die Entwicklung von Strategien von entscheidender Bedeutung. Schließlich kann der Übergang vom manuellen Handel zum algorithmischen Handel ohne die Anleitung eines Marktpraktikers mit Erfahrung auf diesem Gebiet schwierig sein. Dennoch machen die Vorteile des algorithmischen Handels wie Skalierbarkeit, Risikomanagement und die Eliminierung menschlicher Fehler ihn zu einer attraktiven Option für Händler.

  • 00:20:00 In diesem Abschnitt erörtert der Redner die Vorteile der Nutzung des EPAct-Kurses von Point Densitiy für diejenigen, die sich für algorithmischen Handel interessieren. Sie verdeutlichen die Schwierigkeit, eine Plattform zu finden, die die notwendigen Komponenten für den algorithmischen Handel vereint, wie etwa Anleitung von Marktexperten, technisches Wissen und aktualisierte Inhalte. Der EPAct-Kurs zielt darauf ab, diese Lücke zu schließen, indem er umfangreiche Inhalte bereitstellt, die von Marktexperten erstellt und ständig aktualisiert werden, um aktuelle Trends widerzuspiegeln. Darüber hinaus bietet der Kurs engagierte Unterstützung durch die Fakultät und einen marktorientierten Ansatz, was ihn zu einer großartigen Ressource für diejenigen macht, die mit dem algorithmischen Handel beginnen oder eine Karriere in diesem Bereich aufbauen möchten.

  • 00:25:00 In diesem Abschnitt bespricht der Referent einen Kurs zum algorithmischen Handel und die im Kurs behandelten Inhalte. Der Kurs beginnt mit einem Einführungsmodul, in dem Studierende mit unterschiedlichem Hintergrund eine Grundlage mit grundlegender Statistik, Wahrscheinlichkeitstheorie und der Anwendung von Finanzmodellen schaffen können. Der Kurs geht weiter zu Python-Grundlagen und fortgeschrittenen Statistiken wie Gaußschen Modellen, die zum Verständnis komplexerer Strategien verwendet werden. Der Kurs umfasst außerdem die Erstellung von Lebensläufen, die Einrichtung Ihres eigenen Trading Desks und die Durchführung von Probeinterviews für Praktika bei über 100 Partnerunternehmen. Der Kursleiter hilft den Studierenden persönlich bei allen Fragen und Schwierigkeiten und sorgt dafür, dass Zweifel ausgeräumt werden. Der Redner erwähnt auch die exklusiven Vorteile des Beitritts zur globalen algorithmischen Handelsgemeinschaft, wie etwa Community-Events und -Funktionen, die in späteren Abschnitten besprochen werden.

  • 00:30:00 In diesem Abschnitt bespricht der Redner die verschiedenen Module, aus denen der Kurs zum algorithmischen Handel besteht. Der Kurs beginnt mit Bausteinen und geht dann zu Gerechtigkeitseffekten und Zukunftsstrategien über, wobei die Studierenden in einer praktischen Umgebung an der Entwicklung verschiedener Strategien arbeiten. Außerdem werden Marktmikrostruktur und -implementierungen besprochen, gefolgt von einem Modul über Backtesting-Ideen anhand historischer Daten unter Verwendung verschiedener APIs und Broker. Auch maschinelles Lernen wird in einem neuen Bereich erforscht. Der Schwerpunkt liegt auf dem Handel und Front-Operationen. Ein Modul befasst sich mit der Einrichtung einer algorithmischen Handelsinfrastruktur. Der Kurs umfasst außerdem ein Modul zu Optionshandel, Portfoliooptimierung und Risikomanagement. Abschließend bearbeiten die Studierenden ein Projekt und erhalten nach bestandener Prüfung ein verifiziertes Zertifikat.

  • 00:35:00 In diesem Abschnitt bespricht der Redner das von QuantInsti angebotene Algorithmic Trading-Programm, das nach Abschluss eines mehr als 300-stündigen Kurses ein verifiziertes Wirkungszertifikat liefert. Zur Fakultät gehören bekannte Namen der Branche, die zugänglich sind und praktische Erfahrung in verschiedenen Anlageklassen und Rollen bieten. Der Kurs deckt alles ab, von der Lebenslauferstellung bis hin zum Zugriff auf APIs und Maklernetzwerke für eine einfache Implementierung. Darüber hinaus unterstützt das QuantInsti-Team bei der Mittelbeschaffung, was den Kurs zu einem idealen Kurs für diejenigen macht, die sich für das Erlernen des algorithmischen Handels interessieren.

  • 00:40:00 In diesem Abschnitt erörtert Nadine die Vorteile einer Mitgliedschaft in der EPAT-Community, zu der lebenslange Beratung, die Möglichkeit, mit Studenten aus über 165 Ländern in Kontakt zu treten, exklusive Veranstaltungen und Sitzungen, kostenloser und subventionierter Zugang zu Maklern und Zugang gehören bis hin zu Backtesting-Tools wie BlueShift und lebenslangem Zugriff auf die aktuellsten Inhalte. Darüber hinaus erweitert es Ihre vorhandenen Fähigkeiten um eine grundlegende quantitative Dimension. EPAT ist im Rahmen des Finanzausbildungsprogramms anerkannt und bietet Berufstätigen in Singapur eine Vergütung in Höhe von 2.000 Singapur-Dollar.

  • 00:45:00 In diesem Abschnitt bespricht Ben Magnano seine Reise mit dem algorithmischen Handel, beginnend im Jahr 2005, als er mit Daytrading zu kämpfen hatte. Schließlich fand er QuantInsti, wo er durch strenge Schulungen und Lehren in die Grundlagen des quantitativen und algorithmischen Handels eingeführt wurde. Er lernte Python und konnte sein eigenes Programm schreiben. Später erhielt er sein Zertifikat als quantitativer Händler. Dies führte zu einer Chance bei WorldQuant als Forschungsberater, und er arbeitet auch heute noch mit ihnen zusammen und ist stets bestrebt, seinen Codierungsstil zu verbessern und über die neuesten Branchentrends, wie etwa künstliche Intelligenz, auf dem Laufenden zu bleiben.

  • 00:50:00 In diesem Abschnitt spricht der Redner über das enorme Wachstum im Bereich des algorithmischen Handels und darüber, wie er zunehmend zur bevorzugten Methode für Händler wird, die nicht ihren Tag damit verbringen möchten, ihre Geschäfte zu beaufsichtigen. Der Redner würdigt auch die quantitativen Analysten für die Verwirklichung dieser Vision und bedankt sich für die hervorragende Analyse der Referenten. Das Video endet mit einer kurzen Zusammenfassung von ePAD, einem Programm, das die Teilnehmer auf die Industrie im Quant- und FinTech-Bereich vorbereiten soll.
Algorithmic Trading | Is It Right for You & How To Get Started
Algorithmic Trading | Is It Right for You & How To Get Started
  • 2019.06.26
  • www.youtube.com
Nitin Aggarwal is the Co-founder of Alphom Advisory, which focuses on High Frequency Trading Strategies. He was also one of the key members of iRage Options ...
 

Risikomodelle für Quant Trading von Zura Kakushadze – 16. Mai 2019



Risikomodelle für Quant Trading von Zura Kakushadze – 16. Mai 2019

Zura Kakushadze konzentriert sich in seiner Diskussion auf die Herausforderungen, die mit der Berechnung der Umkehrung der Kovarianzmatrix zur Optimierung von Portfolios mit 2.000 US-Aktien verbunden sind. Er betont, dass die Kovarianzmatrix der Stichprobe singulär wird und nicht invertiert werden kann, wenn die Anzahl der Beobachtungen in der Zeitreihe der Renditen kleiner ist als die Anzahl der Aktien im Portfolio. Selbst wenn es nicht singulär wäre, wären die nicht diagonalen Elemente, die Korrelationen darstellen, außerhalb der Stichprobe äußerst instabil, es sei denn, es liegt eine deutlich größere Anzahl von Beobachtungen im Vergleich zu den Beständen vor, was bei realen Anwendungen normalerweise nicht der Fall ist.

Kakushadze erklärt, dass sich Risikomodelle für quantitative Handelsstrategien aufgrund kürzerer Haltedauern und kurzlebiger Alphas von herkömmlichen Risikomodellen unterscheiden. Lange Rückblickszeiträume sind für diese Strategien nicht wünschenswert und es sind alternative Methoden zur Berechnung der Kovarianzmatrix erforderlich. Ein gängiger Ansatz besteht darin, ein Faktormodell zu verwenden, das das Risiko in Faktorrisiko und spezifisches Risiko zerlegt. Der Vorteil des Faktormodells besteht darin, dass es die große Kovarianzmatrix durch eine viel kleinere Faktorkovarianzmatrix darstellt, was es rechnerisch effizient macht. Kakushadze weist jedoch darauf hin, dass es im Faktormodell noch komplizierte Details gibt, die berücksichtigt werden müssen.

Der Redner erörtert außerdem die Herausforderungen, die mit der Berechnung der Volatilität für jede Aktie verbunden sind, und schlägt vor, sich auf die Stichprobenkorrelationsmatrix statt auf die Stichprobenkovarianzmatrix zu konzentrieren. Aufgrund von Problemen wie Singularität, Instabilität und anderen mit der Kovarianzmatrix verbundenen Problemen wird die Stichprobenkorrelationsmatrix bevorzugt. Kakushadze schlägt vor, verzerrte Varianzen herauszufaktorisieren und anstelle der Kovarianzmatrix ein Faktormodell für die Korrelationsmatrix zu verwenden. Es stellt sich die Frage nach der Bestimmung der Risikofaktoren, und es werden zwei Möglichkeiten vorgeschlagen: die Verwendung von Hauptkomponenten der Stichprobenkorrelationsmatrix oder die Verwendung von Stilfaktoren wie Größe, Momentum und Volatilität.

Es werden verschiedene Arten von Risikofaktoren untersucht, die für den quantitativen Handel geeignet sind, einschließlich Stilfaktoren und Branchenklassifizierungen. Der Redner betont, wie wichtig es ist, für den Handel relevante Faktoren mit kurzem Horizont zu verwenden und Faktoren mit längerem Horizont auszuschließen. Das Risiko einer unbeabsichtigten Neutralisierung wünschenswerter Alpha-Faktoren im Risikomodell wird ebenfalls diskutiert, wobei die Notwendigkeit einer sorgfältigen Auswahl und Gewichtung der Risikofaktoren betont wird.

Kakushadze erklärt, dass standardisierte Risikomodelle, die von Anbietern gekauft werden, nicht in der Lage sind, unerwünschte Risikofaktoren zu beseitigen oder alle relevanten Bereiche des Risikobereichs eines Händlers abzudecken. Daher schlägt der Redner vor, ein individuelles Risikomodell von Grund auf zu erstellen. Ein Ansatz besteht darin, statistische Risikomodelle zu verwenden, bei denen eine Zeitreihe von Renditen mit einem begrenzten Lookback-Zeitraum erstellt und Faktorladungen basierend auf den Hauptkomponenten der Stichprobenkorrelationsmatrix erstellt werden.

Das Konzept des effektiven Rangs wird eingeführt, um die Anzahl der Hauptkomponenten zu bestimmen, die als Risikofaktoren verwendet werden sollen. Der effektive Rang misst die effektive Dimensionalität einer Matrix und kann mithilfe der spektralen Entropie berechnet werden. Statistische Risikomodelle weisen jedoch Einschränkungen hinsichtlich der Anzahl der Risikofaktoren auf, da diese durch die Anzahl der Beobachtungen eingeschränkt werden, was zu einer begrenzten Abdeckung des Risikoraums führt. Auch die Instabilität höherer Hauptkomponenten außerhalb der Stichprobe gibt Anlass zur Sorge.

Die Instabilität paarweiser Korrelationen außerhalb der Stichprobe und nicht diagonaler Elemente in der Korrelationsmatrix wird diskutiert. Kakushadze erklärt, dass höhere Hauptkomponenten, die aus einer instabilen Korrelationsmatrix berechnet werden, häufig aktualisiert werden und instabil sind, während die erste Hauptkomponente tendenziell relativ stabil ist. Der Redner befasst sich auch mit der Definition von Stilfaktoren, die für Short-Holding-Strategien geeignet sind, und schlägt vor, statistisch unbedeutende Korrelationen, wie etwa ausstehende Aktien, aus Intraday-Handelsstrategien zu streichen.

Es werden vier gemeinsame Faktoren besprochen, die in quantitativen Handelsmodellen mit kurzem Horizont verwendet werden: Richtung (Momentum), Volatilität, Liquidität und Preis. Kakushadze erklärt, wie jeder Faktor definiert ist und wie Faktorrenditen mithilfe der Querschnittsregression berechnet werden können. Bei der Bestimmung ihrer statistischen Relevanz und Eignung für Handelsstrategien steht die Berechnung der annualisierten Sharpe Ratio für jede Faktorrendite im Vordergrund.

Der Referent geht weiter zum Testen und Verifizieren von Faktorladungen und der Wirksamkeit von Stilfaktoren bei der Risikomodellierung. Als eine Möglichkeit zum Testen der Faktorladungen wird ein Backtesting von Intraday-Geschäften oder kürzeren Alpha-Geschäften auf Residuen nach Herausrechnung historischer Renditen mithilfe der Faktorladungen empfohlen. Der Wert großer Sektoren im Vergleich zu Stilfaktoren wird hervorgehoben, selbst auf der am wenigsten granularen Ebene. Es wird empfohlen, Risikomodelle basierend auf Branchen oder Unterbranchen unter Verwendung grundlegender Branchenklassifizierungen zu erstellen, da diese einen größeren Teil des Risikoraums abdecken. Die Stabilität der ersten Hauptkomponente außerhalb der Stichprobe beeinflusst die Wirksamkeit dieser Risikomodelle.

Die Erstellung einer Faktorladungsmatrix für eine große Anzahl von Unterbranchen wird diskutiert und hierarchische Branchenklassifizierungen als Lösung vorgeschlagen. Bei diesem Ansatz werden zunächst Teilbranchen modelliert und dann die nächste granulare Branchenebene zur Modellierung der Risikofaktoren verwendet. Dies wird fortgesetzt, bis das Problem auf eine kleinere Matrix reduziert ist, die ordnungsgemäß berechnet werden kann.

Es wird der Prozess der schrittweisen Reduzierung von Problemen zur Berechnung von Risikomodellen für den quantitativen Handel erläutert. Indem Kakushadze zunächst eine Faktorladungsmatrix kleinerer Größe, z. B. 10 x 10, zur Stichproben-Kovarianzmatrix berechnet, erstellt er ein Ein-Faktor-Modell für den verbleibenden Faktor, den Markt. Dadurch wird das Problem von einer großen Matrix auf eine kleinere reduziert. Es wird empfohlen, Stilfaktoren in diese Konstruktion einzubeziehen, ihr Beitrag kann jedoch im Vergleich zu einer größeren Anzahl von Risikofaktoren aus verschiedenen Branchen begrenzt sein. Stilfaktoren sind möglicherweise keine idealen Proxys für die Modellierung von Korrelationen zwischen Aktien.

Es wird erklärt, wie wichtig es ist, einen Achsenabschnitt in den Normalisierungsprozess von Stilfaktoren einzubeziehen. Der Redner stellt klar, dass der Logarithmus des Preises, der normalerweise als Stilfaktor verwendet wird, tatsächlich der Logarithmus des Preises dividiert durch einen Normalisierungsfaktor ist. Der Normalisierungsfaktor ist empirisch und kann je nach Präferenz des Händlers angepasst werden. Während branchenbasierte Faktoren tendenziell zuverlässige Proxys für die Modellierung von Korrelationen sind, gelten bilineare Kombinationen von Stilfaktoren als schlechte Proxys. Daher wird Händlern empfohlen, sich auf branchenbasierte Faktoren zu konzentrieren und ihre Modelle an ihren Handelsstil und ihre quantitativen Handelsalphas anzupassen.

Der Redner stellt das Konzept der Heterosis vor, das leistungsstarke Ideen wie Faktormodelle, Branchenklassifizierungen und Hauptkomponenten zu einer Konstruktion kombiniert, die bei der Risikomodellierung äußerst effektiv sein kann. Clustering-Techniken werden auch als Möglichkeit zur Konstruktion von Risikofaktoren mithilfe mehrstufiger Clustering-Schemata diskutiert, die grundlegende Branchenklassifizierungen ersetzen können. Allerdings können nichtdeterministische Clustering-Algorithmen bei jeder Ausführung unterschiedliche Clusterings erzeugen, was zu Rauschen im System führt. Um das Rauschen zu reduzieren, kann eine große Anzahl von Clustern gemittelt oder andere Techniken wie Dimensionsreduktion oder Hauptkomponentenanalyse eingesetzt werden.

Es werden verschiedene Ansätze zur Clusterbildung in quantitativen Handelsrisikomodellen untersucht. Der Sprecher erklärt, dass k-Means-Clustering zwar möglicherweise nicht deterministisch ist, deterministische Alternativen wie hierarchisches Clustering jedoch subjektiv und langsamer sein können. Der Referent schlägt vor, Risikomodelle selbst zur Aggregation zu nutzen, anstatt sich ausschließlich auf Clustering zu verlassen. Im Fall von k-Mitteln ergibt sich die nichtdeterministische Natur aus der Initialisierung von Clusterzentren, aber das Finden des globalen Minimums ist nicht immer notwendig. Um den naiven Ansatz der Verwendung historischer Renditen zu verbessern, wird vorgeschlagen, die Renditen anhand historischer Volatilitäten zu normalisieren.

Für den Quantenhandel werden Clusternormalisierung und Multi-Level-Clustering diskutiert. Um Portfolios zu optimieren und die Leistung zu verbessern, wird empfohlen, die Clusterbildung durch Division der Renditen durch die Varianz durchzuführen, anstatt die Renditen mit zwei Standardabweichungen zu normalisieren. Es werden zwei Ansätze für das Multi-Level-Clustering vorgestellt: Bottom-Up-Ansätze, bei denen die granularste Ebene zuerst erstellt wird, gefolgt von der sukzessiven Clusterung von Clustern, und Top-Down-Ansätze, bei denen zuerst die am wenigsten granulare Ebene erstellt wird, gefolgt von der sukzessiven Clusterung von Tickern. Nichtdeterministische Algorithmen wie hierarchische Algorithmen bieten im Hinblick auf die Leistung im Vergleich zu deterministischen Algorithmen keine Vorteile, und der Sprecher schlägt die Verwendung von Clustering- und Aggregationstechniken vor.

Der Referent befasst sich mit der Frage der Bestimmung der Anzahl von Clustern in Clustering-basierten Risikomodellen. Traditionelle Methoden wie die Ellenbogenmethode oder die Silhouettenanalyse werden erwähnt, liefern jedoch möglicherweise nicht immer zuverlässige Ergebnisse. Stattdessen schlägt der Redner die Verwendung einer Stabilitätsanalyse vor, bei der mehrere Clustering-Lösungen erstellt und die Stabilität der resultierenden Cluster gemessen werden. Die Stabilität kann mithilfe von Techniken wie Cluster-Paar-Stabilität oder Bootstrap-Stabilität beurteilt werden.

Kakushadze betont die Bedeutung der Stabilität in Cluster-basierten Risikomodellen, da instabile Cluster zu unzuverlässigen Risikoschätzungen führen können. Er schlägt vor, stabile Cluster für die Risikomodellierung zu verwenden, während instabile Cluster verworfen oder mit anderen Clustern kombiniert werden sollten, um die Stabilität zu verbessern. Als Alternative zu herkömmlichen Clustering-Methoden erwähnt der Referent auch den Einsatz von Techniken des maschinellen Lernens, beispielsweise hierarchisches Clustering mithilfe von Algorithmen des maschinellen Lernens.

Anschließend geht es weiter mit der Konstruktion von Risikomodellen auf Basis der ausgewählten Cluster. Der Redner schlägt vor, die Beispielkorrelationsmatrix innerhalb jedes Clusters zu verwenden, um die Faktorladungen abzuschätzen. Durch Zerlegen der Beispielkorrelationsmatrix jedes Clusters in seine Eigenwerte und Eigenvektoren können die Faktorladungen ermittelt werden. Anschließend kann die Faktorladungsmatrix für das gesamte Portfolio erstellt werden, indem die Faktorladungen aus jedem Cluster kombiniert werden.

Der Redner betont, wie wichtig es ist, die Faktorladungen ordnungsgemäß zu normalisieren, um sicherzustellen, dass sie Risikobeiträge darstellen. Er schlägt vor, den Kehrwert der Eigenwerte als Gewichte für die Faktorladungen zu verwenden, um Risikoparität zu erreichen. Dadurch wird sichergestellt, dass jede Aktie gleichermaßen zum Gesamtrisiko des Portfolios beiträgt. Das Risikomodell kann durch die Einbeziehung zusätzlicher Faktoren wie Stilfaktoren oder branchenbezogener Faktoren weiter verbessert werden.

Zura Kakushadze diskutiert die Herausforderungen und Ansätze bei der Erstellung von Risikomodellen für quantitative Handelsstrategien. Er betont, wie wichtig es ist, Probleme wie Singularität und Instabilität in der Kovarianzmatrix anzugehen und geeignete Risikofaktoren und Clustering-Techniken auszuwählen. Durch die Kombination von Faktormodellen, Branchenklassifizierungen und Clustering können Händler individuelle Risikomodelle erstellen, die die Risikomerkmale ihrer Portfolios effektiv erfassen.

  • 00:00:00 Der Referent erörtert die Frage der Berechnung der Umkehrung der Kovarianzmatrix zur Optimierung eines Portfolios von 2.000 US-Aktien unter Verwendung von Techniken wie der mittleren Varianzoptimierung oder der Sharpe-Ratio-Maximierung. Er erklärt, dass die Kovarianzmatrix der Stichprobe singulär ist und nicht invertiert werden kann, wenn die Anzahl der Beobachtungen in der Zeitreihe der Renditen kleiner ist als die Anzahl der Aktien im Portfolio. Selbst wenn es nicht singulär wäre, wären die nicht diagonalen Elemente (die Korrelationen darstellen) außerhalb der Stichprobe äußerst instabil, es sei denn, die Anzahl der Beobachtungen ist viel größer als die Anzahl der Aktien im Portfolio, was normalerweise nie der Fall ist reale Anwendungen.

  • 00:05:00 Zura Kakushadze diskutiert, wie sich Risikomodelle für quantitative Handelsstrategien von traditionellen Risikomodellen unterscheiden. Aufgrund kürzerer Haltedauern und kurzlebiger Alphas sind lange Rückblickszeiträume für diese Strategien nicht wünschenswert und es ist ein Ersatz für die Stichproben-Kovarianzmatrix erforderlich. Dies erfolgt typischerweise über ein Faktormodell, das das Risiko in Faktorrisiko und spezifisches Risiko zerlegt. Das Faktormodell hat den Vorteil, dass es die große Matrix durch eine viel kleinere Faktor-Kovarianzmatrix modelliert, was es recheneffizient macht. Allerdings gibt es immer noch teuflische Details, die angegangen werden müssen.

  • 00:10:00 Zura Kakushadze erörtert die Probleme bei der Berechnung der Volatilität (Sigma) für jede Aktie und erklärt, dass aufgrund ihrer Singularität, Instabilität und anderen Gründen die Stichprobenkorrelationsmatrix und nicht die Stichprobenkovarianzmatrix im Mittelpunkt der Modellierung stehen sollte Themen. Er schlägt vor, verzerrte Varianzen auszuklammern und über ein Faktormodell für die Korrelationsmatrix und nicht über die Kovarianzmatrix zu modellieren. Es stellt sich die Frage, was die Risikofaktoren sein sollten, und er schlägt zwei Möglichkeiten vor: die Verwendung einiger Hauptkomponenten der Beispielkorrelationsmatrix oder die Verwendung der sogenannten Stilfaktoren, bei denen es sich um die gemessenen Eigenschaften von Aktien wie Größe, Momentum, Volatilität usw. handelt. usw.

  • 00:15:00 Zura Kakushadze diskutiert verschiedene Arten von Risikofaktoren, die im quantitativen Handel verwendet werden können, einschließlich Stilfaktoren und Branchenklassifizierungen. Er hebt das Problem der Verwendung von Stilfaktoren mit längerem Horizont beim Handel mit kurzem Horizont hervor, da diese zu Störungen bei der Optimierung führen und zusätzliche Trades ohne Alpha generieren können. Es ist wichtig, sich auf Faktoren mit kurzem Horizont zu konzentrieren, die für den Handel relevant sind, und Faktoren mit längerem Horizont auszuschließen. Ein weiteres Problem ist die unbeabsichtigte Alpha-Neutralisierung, bei der ein Faktor im Risikomodell, der langfristig sein sollte, unbeabsichtigt neutralisiert werden kann. Daher muss die Auswahl und Gewichtung der Risikofaktoren sorgfältig geprüft werden.

  • 00:20:00 Der Referent erklärt, wie optimierte Risikomodelle den wünschenswerten Alpha-Faktor neutralisieren können, auf den quantitative Händler setzen möchten. Standardisierte Risikomodelle, die von Anbietern erworben werden, sind nicht in der Lage, unerwünschte Risikofaktoren aus dem Faktormodell oder der Kovarianzmatrix zu entfernen und können die relevanten Richtungen des Risikoraums des Händlers nicht abdecken. Daher schlägt der Redner vor, dass ein individuelles Risikomodell von Grund auf erstellt werden sollte. Eine Möglichkeit, ein benutzerdefiniertes Risikomodell zu erstellen, besteht darin, statistische Risikomodelle zu verwenden. Dabei wird eine Zeitreihe von Renditen mit einem begrenzten Lookback-Zeitraum erstellt und Faktorladungen basierend auf den ersten K Hauptkomponenten der Stichprobenkorrelationsmatrix erstellt.

  • 00:25:00 Zura Kakushadze diskutiert den effektiven Rang als eine Möglichkeit, die Anzahl der Hauptkomponenten zu bestimmen, die als Risikofaktoren in einer Faktorladungsmatrix verwendet werden sollen. Der effektive Rang ist als die effektive Dimensionalität einer Matrix definiert und kann mithilfe der spektralen Entropie berechnet werden, um die effektive Dimensionalität einer Stichprobenkorrelationsmatrix zu bestimmen. Die Einschränkung bei der Verwendung statistischer Risikomodelle besteht darin, dass die Anzahl der Risikofaktoren durch die Anzahl der Beobachtungen begrenzt ist, was dazu führt, dass nur ein relativ kleiner Teil des Risikoraums abgedeckt wird. Die Instabilität außerhalb der Stichprobe ist auch bei höheren Hauptkomponenten der Stichprobenkorrelationsmatrix ein Problem.

  • 00:30:00 Zura Kakushadze spricht über die Instabilität paarweiser Korrelationen außerhalb der Stichprobe und wie diese mit der Instabilität der nicht diagonalen Elemente in der Korrelationsmatrix zusammenhängt. Er erklärt, dass die höheren Hauptkomponenten, die aus dieser instabilen Korrelationsmatrix berechnet werden, häufig aktualisiert werden und instabil sind, während die erste Hauptkomponente relativ stabil ist. Kakushadze erörtert auch, wie man Stilfaktoren definiert, die für Short-Holding-Strategien relevant sind, wie z. B. Marktkapitalisierung und Kursprotokoll, und wie ausstehende Aktien fallen gelassen werden können, da sie statistisch unbedeutende Korrelationen mit dem Alpha in Intraday-Handelsstrategien aufweisen.

  • 00:35:00 Zura Kakushadze diskutiert vier gemeinsame Faktoren, die in Quant-Trading-Modellen mit kurzem Horizont verwendet werden: Richtung (Momentum), Volatilität, Liquidität und Preis. Er erklärt, wie man jeden dieser Faktoren definiert und wie man seine Faktorrenditen mithilfe der Querschnittsregression berechnet. Kakushadze betont auch, wie wichtig es ist, die jährliche Sharpe-Ratio für jeden Faktorertrag zu berechnen, um deren statistische Relevanz und Eignung für Wetten in einer Handelsstrategie zu bestimmen.

  • 00:40:00 Der Referent diskutiert Möglichkeiten zum Testen und Verifizieren von Faktorladungen und die Wirksamkeit von Stilfaktoren in der Risikomodellierung. Eine Möglichkeit, Faktorladungen zu testen, besteht darin, Backtests für Intraday-Trades oder kürzere Alpha-Trades an den Residuen durchzuführen, nachdem die historischen Renditen mithilfe der Faktorladungen herausgerechnet wurden. Der Redner präsentiert auch Daten aus Backtests und betont den Wert großer Sektoren im Vergleich zu Stilfaktoren, selbst auf der am wenigsten granularen Ebene. Anschließend schlägt der Redner vor, Risikomodelle auf der Grundlage von Branchen oder Teilbranchen zu erstellen und dabei grundlegende Branchenklassifizierungen wie Bix oder GICS zu verwenden, da diese einen größeren Teil des Risikoraums abdecken als Stilfaktoren. Die Wirksamkeit dieser Risikomodelle hängt von der Stabilität der ersten Hauptkomponente außerhalb der Stichprobe ab.

  • 00:45:00 Zura Kakushadze diskutiert die Konstruktion einer Faktorladungsmatrix und die Herausforderung, diese für eine große Anzahl von Teilbranchen richtig zu berechnen. Als Lösung schlägt er hierarchische Branchenklassifizierungen vor, bei denen das Problem mithilfe eines russischen Puppenrisikoeinbettungsansatzes auf eine kleinere Matrix reduziert wird. Dazu gehört zunächst die Modellierung der Unterbranchen, dann die Modellierung dieser Risikofaktoren mithilfe der nächsten granularen Branchenebene usw., bis das Problem auf eine kleinere Matrix reduziert ist, die ordnungsgemäß berechnet werden kann.

  • 00:50:00 Zura Kakushadze diskutiert den Prozess der schrittweisen Reduzierung von Problemen, um Risikomodelle für Quant Trading zu berechnen. Durch die Berechnung einer 10 x 10 Faktorladungsmatrix zur Stichproben-Kovarianzmatrix kann Kakushadze ein Ein-Faktor-Modell für den verbleibenden Faktor, den Markt, erstellen und so das Problem von 2000 mal 2000 auf eins nach eins reduzieren. Er schlägt vor, Stilfaktoren in diese Konstruktion einzubeziehen, weist jedoch darauf hin, dass ihr Beitrag im Vergleich zu einer größeren Anzahl von Risikofaktoren aus verschiedenen Branchen möglicherweise begrenzt ist. Darüber hinaus sind Stilfaktoren möglicherweise keine guten Anhaltspunkte für die Modellierung von Korrelationen in paarweisen Korrelationen zwischen Aktien.

  • 00:55:00 Zura Kakushadze erklärt, warum ein Abschnitt in den Normalisierungsprozess von Stilfaktoren einbezogen werden muss. Der Achsenabschnitt ist notwendig, da der Logarithmus des Preises, der normalerweise als Stilfaktor verwendet wird, eigentlich nicht der Logarithmus des Preises ist, sondern der Logarithmus des Preises dividiert durch einen Normalisierungsfaktor. Diese Normalisierung ist eine empirische Frage und kann je nach Präferenz des Händlers angepasst werden. Während branchenbasierte Faktoren tendenziell zuverlässige Proxys für die Modellierung von Korrelationen sind, sind bilineare Kombinationen von Stilfaktoren eher schlechte Proxys. Daher sollten sich Händler auf branchenbasierte Faktoren konzentrieren und ihre Modelle an ihr Handelsmodell und ihre quantitativen Handels-Alphas anpassen.

  • 01:00:00 Der Redner diskutiert das Konzept der Heterosis, bei dem es sich um die Kombination leistungsstarker Ideen wie Faktormodelle, Branchenklassifizierungen und Hauptkomponenten zu einer Konstruktion handelt, die bei der Risikomodellierung sehr wirkungsvoll sein kann. Er erklärt, dass Clustering-Techniken auch bei der Konstruktion von Risikofaktoren durch mehrstufige Clustering-Schemata verwendet werden können, die grundlegende Branchenklassifizierungen ersetzen können. Ein Problem beim Clustering besteht jedoch darin, dass es nicht deterministisch ist und bei jeder Ausführung unterschiedliche Clusterings generieren kann, was zu Rauschen im System führt. Um das Rauschen zu reduzieren, kann man entweder eine große Anzahl von Clusterings aufheben oder andere Techniken wie Dimensionsreduktion oder Hauptkomponentenanalyse verwenden.

  • 01:05:00 Der Referent diskutiert verschiedene Ansätze zur Clusterung in quantitativen Handelsrisikomodellen. Sie erklären, dass k-Mittel zwar möglicherweise nicht deterministisch sind, die Verwendung deterministischer Alternativen wie hierarchisches Clustering jedoch subjektiv und langsamer sein kann. Darüber hinaus schlägt der Redner vor, Risikomodelle selbst zur Aggregation anstelle von Clusterings zu verwenden. Bei der Verwendung von k-means weist der Sprecher darauf hin, dass die Initialisierung der Zentren für jeden Cluster die nichtdeterministische Natur des Algorithmus verursacht, das Finden des globalen Minimums jedoch nicht immer notwendig ist. Um den naiven Ansatz der Verwendung historischer Renditen zu verbessern, schlägt der Redner vor, die Renditen anhand historischer Volatilitäten zu normalisieren.

  • 01:10:00 Zura Kakushadze diskutiert Cluster-Normalisierung und mehrstufiges Clustering für Quant Trading. Er schlägt vor, dass die Clusterbildung durch Division der Renditen durch die Varianz erfolgen sollte, anstatt die Renditen mit zwei Standardabweichungen zu normalisieren, um Portfolios zu optimieren und die Leistung zu verbessern. Kakushadze schlägt zwei Möglichkeiten für das Clustering auf mehreren Ebenen vor: Bottom-Up, wobei zuerst die Ebene mit der höchsten Granularität erstellt wird und dann nacheinander Cluster gruppiert werden, und Top-Down, bei dem zuerst die Ebene mit der geringsten Granularität erstellt wird und dann nacheinander Ticker gruppiert werden. Darüber hinaus weisen nicht deterministische Algorithmen wie hierarchische Algorithmen im Vergleich zu deterministischen Algorithmen keine Leistungsvorteile auf, und Kakushadze schlägt die Verwendung von Clustering- und Aggregationstechniken vor.

  • 01:15:00 Der Referent diskutiert mögliche Möglichkeiten, die Anzahl der Cluster in einem Handelsmodell festzulegen. Eine Möglichkeit besteht darin, auf dem effektiven Rang basierende Heuristiken zu verwenden, um die Anzahl der benötigten Cluster zu bestimmen. Alternativ könnte man die Anzahl der Cluster als Hyperparameter beibehalten und sie durch Backtests außerhalb der Stichprobe optimieren. Darüber hinaus wird eine Methode zum Ausrichten von Clustern diskutiert, die durch verschiedene k-Means-Läufe erzeugt wurden, und zum Clustern dieser ausgerichteten Zentren durch k-Means, um eine Ausrichtung der ursprünglichen k-Means-Läufe in k Cluster zu erzeugen. Diese Methode führt möglicherweise zu einer geringeren Anzahl von Clustern als beabsichtigt, kann jedoch dennoch ein nützliches Modell mit weniger Clustern liefern.

  • 01:20:00 Der Referent diskutiert verschiedene Möglichkeiten zur Aggregation von Risikomodellen im quantitativen Handel. Ein Ansatz besteht darin, die Cluster mithilfe von k-Mitteln auszurichten und leere Cluster zu löschen, um verrauschte Cluster zu eliminieren, was als Clustering-Algorithmus angewendet werden kann. Obwohl der Ausrichtungsprozess selbst nicht deterministisch ist, führt er zu einem weniger verrauschten und ausreichenden Ergebnis. Eine andere Methode besteht darin, die Risikomodelle selbst zu aggregieren, indem die Modellkovarianzmatrix auf der Grundlage eines einzelnen k-Mittelwerts berechnet wird, bei dem es sich um ein Faktormodell handelt. Allerdings kann die entsprechende Faktor-Kovarianzmatrix aufgrund kleiner p-Werte und einer großen Anzahl von Clustern singulär sein, was die Abdeckung des Risikoraums einschränkt. Durch die Aggregation einer großen Anzahl einzelner k-means-basierter Risikomodelle werden viel mehr Richtungen im Risikoraum abgedeckt, was zu einem nicht-faktorisierten Risikomodell mit breiterer Abdeckung führt.

  • 01:25:00 Zura Kakushadze diskutiert die verschiedenen Möglichkeiten der Risikomodellierung und welcher Ansatz besser funktioniert. Er erklärt, dass statistische Risikomodelle, die auf Hauptkomponenten basieren, am schlechtesten abschneiden, weil sie nur einen kleinen Teil des Risikoraums abdecken. Risikomodelle für maschinelles Lernen wie Clustering schneiden wesentlich besser ab, da sie Beziehungen zwischen Renditen aufdecken, die auf linearer Ebene nicht vorhanden sind. Allerdings sind sie immer noch schlechter als die heterotischen Risikomodelle, die auf der grundlegenden Branchenklassifizierung basieren. In dieser Hinsicht sind Menschen immer noch besser als Maschinen, da die grundlegenden Branchenklassifizierungen auf einer gründlichen Analyse zahlreicher Faktoren basieren, auch wenn es gelegentlich zu Fehleinschätzungen kommt. Es ist nicht bekannt, ob ein maschineller Lernalgorithmus jemals in der Lage sein wird, Menschen bei der Risikomodellierung zu übertreffen.

  • 01:30:00 Der Redner ermutigt die Zuschauer, sich mit Backtesting zu beschäftigen und praktische Erfahrungen mit den im Video besprochenen Handelsstrategien zu sammeln. Sie bieten Links zu Artikeln und Quellcode, die zur Optimierung und Anpassung der Strategien an individuelle Handelsstile verwendet werden können. Darüber hinaus erwähnen die Organisatoren Initiativen von Condensity, darunter ein Zertifizierungsprogramm und ein selbstbestimmtes Lernportal, die darauf abzielen, ein globales Wissens- und Technologiezentrum im algorithmischen und quantitativen Handel zu werden.
Risk Models For Quant Trading By Zura Kakushadze - May 16, 2019
Risk Models For Quant Trading By Zura Kakushadze - May 16, 2019
  • 2019.05.17
  • www.youtube.com
Learn about using Risk Modelling for the purpose of Quant Trading from none other than the renowned personality, Dr. Zura Kakushadze. Zura is the President a...
 

Forex-Handel für Anfänger | Algorithmischer Handel auf Devisenmärkten von Dr. Alexis Stenfors



Forex-Handel für Anfänger | Algorithmischer Handel auf Devisenmärkten von Dr. Alexis Stenfors

Dr. Alexis Stenfors befasst sich mit einer umfassenden Analyse des Devisenmarktes (FX) mit besonderem Schwerpunkt auf Liquidität und ihrer Bedeutung. Er beginnt mit der Betonung der immensen Größe des Devisenmarktes und seiner vergleichbaren Größe im Verhältnis zum globalen Aktienmarkt. Trotz möglicher Krisen oder Naturkatastrophen bleibt die Liquidität auf dem Devisenmarkt tendenziell robust.

Dr. Stenfors beleuchtet den Wettbewerbscharakter des professionellen Devisenmarktes und weist auf seine internationale Reichweite hin. Der Handel mit einem einzelnen Währungspaar ist auf diesem Markt nicht möglich, ohne gleichzeitig mit einem anderen Währungspaar zu handeln. Dieses Merkmal unterscheidet den Devisenmarkt vom Aktienmarkt, wo der Kauf von Aktien häufiger und unkomplizierter ist. Darüber hinaus können Zentralbanken in den Devisenmarkt eingreifen, indem sie den Wert einer Währung durch Maßnahmen wie das Drucken von Geld oder direkte Interventionen beeinflussen, während solche Eingriffe am Aktienmarkt weniger üblich sind. Darüber hinaus operiert der Devisenmarkt ohne Vorschriften, Leistungsschalter und Transparenz, was den Zugriff auf zuverlässige Daten für Forschungszwecke erschwert.

Der Kern der Liquidität auf dem Devisenmarkt wird von Dr. Stenfors erläutert, der die Bedeutung von Beziehungen und Konventionen zwischen Banken hervorhebt. Im Gegensatz zu traditionellen Aktien- und Aktienmärkten können Market Maker auf dem Devisenmarkt keine Preise angeben oder Liquidität bereitstellen, es sei denn, sie wissen, dass eine andere Partei zur Gegenleistung bereit ist. Auf dem FX-Swap-Markt konzentrieren sich die Geld-Brief-Spannen der Wettbewerber in der Regel um bestimmte Ziffern, und interessanterweise geben Wettbewerber häufig genau die gleichen Spreads an, anstatt unterschiedliche Spreads anzubieten.

Marktkonventionen in der Devisenhandelsbranche werden von Dr. Stenfors erörtert, wobei der Schwerpunkt auf preis- und volumenbasierten Konventionen liegt. Diese Konventionen schreiben ein angemessenes Handelsverhalten vor und ermöglichen eine starke Beziehung zwischen Banken und Kunden. Umfragen zeigen, dass nur ein kleiner Prozentsatz der Händler Konventionen in erster Linie aus Profitgründen befolgt, während die Mehrheit sie als Mittel zur Pflege von Beziehungen und zur Aufrechterhaltung eines positiven Marktimages wahrnimmt. Der Aufstieg des algorithmischen Handels hat zu Änderungen dieser Konventionen geführt, wobei der algorithmische Handel über 70 % des Handels auf Plattformen wie EBS ausmacht.

Die Auswirkungen des algorithmischen Handels auf den Devisenmarkt werden von Dr. Stenfors diskutiert. Befürworter argumentieren, dass der Hochfrequenzhandel die Markteffizienz steigern, Transaktionskosten senken und die Liquidität verbessern kann. Skeptiker behaupten jedoch, dass Algorithmen nicht dazu geeignet seien, Konventionen einzuhalten, die ursprünglich für menschliche Beziehungen entwickelt wurden. Händler, die elektronische Plattformen nutzen, können vor Herausforderungen stehen, wenn sich der Markt beim Versuch, Geschäfte auszuführen, schnell bewegt. Liquidität wird heute als komplex und schwer zu ermitteln wahrgenommen. Trotz unterschiedlicher Standpunkte zu Algorithmen sind sich beide Seiten einig, dass die Devisenliquidität Veränderungen unterliegt, die einer genaueren Betrachtung bedürfen. Dr. Stenfors präsentiert Daten einer Handelsplattform, die auf eine gleichmäßige Aufteilung zwischen menschlichem und algorithmischem Handel im Jahr 2010 hinweisen.

Bei der Untersuchung des Volumens und der Liquidität des Devisenmarktes konzentriert sich Dr. Stenfors auf das Währungspaar Euro-Dollar als Beispiel. Er verrät, dass an drei Handelstagen die Gesamtmenge der Limit-Orders für den Euro-Dollar 1,8 Billionen betrug, mit einem geringen Spread von nur 0,08 Prozent. Dies deutet auf einen äußerst liquiden Markt mit engen Spreads hin. Allerdings führten weniger als ein Prozent aller Limit-Orders tatsächlich zu Transaktionen und die durchschnittliche Laufzeit der Limit-Orders betrug lediglich 2,5 Sekunden. Diese Ergebnisse deuten darauf hin, dass der Markt zwar liquide erscheinen mag, seine tatsächliche Liquidität jedoch möglicherweise weniger bedeutend ist, als es scheint. Dr. Stenfors stellt die Frage, ob schnell auf Liquidität zugegriffen werden kann, und führt einen Test durch, um festzustellen, ob der Markt umgehend auf Transaktionsversuche reagiert.

Dr. Stenfors teilt seine Forschung über die Auswirkungen der Einreichung von Limitaufträgen auf die Liquidität im Devisenmarkt. Bei der Analyse von 1,4 Millionen Limit-Order-Einreichungen stellt er fest, dass eine neue Limit-Order sofort Liquidität auf die andere Seite des Orderbuchs bringt, was Hochfrequenzhändlern zugute kommt. Die Liquidität verschwindet jedoch innerhalb von 0,1 Sekunden, was darauf hindeutet, dass der algorithmische Handel nur zur kurzfristigen Liquidität beiträgt. Dr. Stenfors hebt einen deutlichen Wandel in der Bereitschaft zur Unterstützung der Liquidität auf dem Devisenmarkt im letzten Jahrzehnt hervor und unterstreicht die Bedeutung der Berücksichtigung verschiedener Aspekte der Liquidität, wie z. B. preisbasierte Liquidität, volumenbasierte Liquidität, gemeinschaftsbasierte Liquidität usw geschwindigkeitsbasierte Liquidität bei der Marktanalyse.

Das Konzept der verschiedenen Ordertypen im Devisenhandel und ihre ethischen Implikationen wird von Dr. Stenfors erläutert. Er erläutert, dass Split-Orders eingesetzt werden, um große Orders in kleinere aufzuteilen, um zu verhindern, dass andere Händler ihre Orders stornieren, und um informationsreiche Orders zu verbergen. Allerdings sind Löffelbestellungen, die einen falschen Eindruck von der Marktlage vermitteln, auf den meisten Märkten typischerweise illegal. Andererseits sind Ping-Befehle, die darauf abzielen, versteckte Marktinformationen zu extrahieren, weniger kontrovers, aber interpretierbar. Dr. Stenfors stellt außerdem seine konservative Definition von Split-Orders vor und zeigt, dass sie 15–20 % der Euro-Dollar- und Dollar-Yen-Orders unter den fünf untersuchten Währungspaaren ausmachten.

Dr. Stenfors befasst sich intensiv mit der Verwendung von Split-Orders und ihrer Aggressivität auf dem Devisenmarkt. Entgegen der landläufigen Meinung weisen große Orders oft eine hohe Aggressivität auf, und Split-Orders dienen nicht nur dazu, größere Beträge zu verschleiern, sondern ermöglichen es algorithmischen Händlern auch, aggressivere Orders aufzugeben. Allerdings ist die Reaktion des Marktes auf Split-Orders viel ausgeprägter als bei typischen menschlichen Orders, und Algorithmen passen sich schnell an diese Strategie an, wodurch Split-Orders weniger effektiv sind. Die Diskussion geht auch auf Spoofing und Ping ein und weist darauf hin, dass wichtige Währungspaare wie Euro-Dollar und Dollar-Yen sehr sensibel auf Informationen reagieren und daher anfällig für Spoofing sind, während Ping verwendet wird, um versteckte Informationen zu extrahieren, indem der Markt mit Aufträgen getestet und etwaige Reaktionen beobachtet werden .

Dr. Stenfors präsentiert einen Proxy, den er entwickelt hat, um die Verbreitung von „Pinging“ in verschiedenen Devisenmärkten zu analysieren. Ein Ping-Auftrag wird storniert, bevor eine Marktveränderung eintritt, was ihn zu einem potenziellen Indikator für Ping-Aktivität macht. Anhand einer umfassenden Datenbank schätzt Dr. Stenfors, dass etwa 10 % der Orders auf dem Euro-Dollar- und dem Gelben Markt potenzielle Ping-Orders sein könnten. In Märkten wie Euro-Schweden und Dollar-Rubel steigt dieser Prozentsatz jedoch deutlich an und erreicht bis zu 50 % bzw. 80 %. Bemerkenswert ist, dass Pinging in weniger gehandelten Märkten auf der Plattform stärker ausgeprägt zu sein scheint. Dr. Stenfors weist darauf hin, dass die Untersuchung der Liquidität die Berücksichtigung verschiedener Strategien und Auftragslaufzeiten erfordert, da die Market-Making-Funktion, insbesondere im FX-Pop-Markt, zunehmend von Algorithmen ausgeführt wird.

Dr. Stenfors erörtert die sich entwickelnde Natur der Liquidität auf dem Devisenmarkt und betont die Notwendigkeit einer breiteren Palette von Kennzahlen, um sie zu bewerten. Er unterstreicht die Auswirkungen von Barrieren in Ordnungsstrategien wie Abspaltungen, Spoofing und Pinging. Obwohl diese Probleme auf den Aktienmärkten ausführlich untersucht wurden, können ihre Auswirkungen auf die Devisenliquidität trotz der größeren Größe des Devisenmarkts erheblich unterschiedlich sein. Dr. Stenfors empfiehlt Händlern, sich dieser Komplexität bewusst zu bleiben, unabhängig von den Methoden zur Auftragserteilung, und stellt zusätzliche Ressourcen für diejenigen bereit, die an einer weiteren Erkundung interessiert sind.

Dr. Alexis Stenfors bietet eine detaillierte Analyse des Devisenmarktes mit besonderem Schwerpunkt auf Liquidität und ihren verschiedenen Dimensionen. Seine Forschung beleuchtet die einzigartigen Merkmale des Devisenmarktes, einschließlich seiner Größe, seines Wettbewerbscharakters und seiner internationalen Reichweite. Er betont die Bedeutung von Marktkonventionen, die Auswirkungen des algorithmischen Handels und die Auswirkungen verschiedener Auftragsarten auf die Liquidität. Durch seine Studien deckt Dr. Stenfors die Komplexität und die sich entwickelnde Natur der Devisenliquidität auf und unterstreicht die Notwendigkeit einer umfassenden Bewertung und eines umfassenden Verständnisses in diesem dynamischen Markt.

  • 00:00:00 Dr. Alexis Stenfors diskutiert den Devisenmarkt (FX) und insbesondere die Bedeutung der Liquidität. Er hebt die Größe des Devisenmarktes und seine vergleichbare Größe zum globalen Aktienmarkt hervor. Er weist auch darauf hin, dass die Liquidität im Allgemeinen sehr gut sei, selbst in Zeiten von Krisen oder Naturkatastrophen. Anschließend erörtert Dr. Stenfors den Wettbewerbscharakter des Devisenmarkts im professionellen Umfeld und wie er international ist, was bedeutet, dass man nicht mit einem einzelnen Währungspaar handeln kann, ohne auch etwas anderes zu handeln.

  • 00:05:00 Dr. Alexis Stenfors erklärt die einzigartigen Merkmale des Forex-Marktes, die ihn vom Aktienmarkt unterscheiden. Der Forex-Markt weist eine perfekte Symmetrie auf, da der Kauf einer Währung automatisch den Verkauf einer anderen Währung mit sich bringt, während der Aktienmarkt auf den Kauf von Aktien ausgerichtet ist. Darüber hinaus können Zentralbanken in den Devisenmarkt eingreifen, indem sie den Wert einer Währung durch Gelddrucken oder direkte Eingriffe regulieren, während sie normalerweise nicht in den Aktienmarkt eingreifen. Der Forex-Markt ist außerdem ein unregulierter Markt ohne Leistungsschalter und ein OTC-Markt, was ihn sehr undurchsichtig und schwierig macht, auf Daten für Forschungszwecke zuzugreifen.

  • 00:10:00 Dr. Alexis Stenfors erklärt den Kern der Liquidität auf dem Devisenmarkt und die verschiedenen Arten von Liquidität basierend auf Preis, Volumen und Geschwindigkeit. Die Liquidität auf dem Markt basiert auf Beziehungen und Konventionen zwischen Banken, was sich von traditionellen Aktien- und Aktienmärkten unterscheidet. Market Maker sind nicht in der Lage, Preise zu stellen oder Liquidität bereitzustellen, ohne zu wissen, dass eine andere Partei da ist, um sie zurückzuzahlen. Auf dem Devisen-Swap-Markt tendiert die Geld-Brief-Spanne für die Preise der Wettbewerber dazu, sich um bestimmte Ziffern herum zu konzentrieren, und das Interessante daran ist, dass Wettbewerber oft genau die gleichen Spreads angeben und nicht unterschiedliche.

  • 00:15:00 Dr. Alexis Stenfors erörtert die Bedeutung von Marktkonventionen in der Devisenhandelsbranche, einschließlich preis- und volumenbasierter Konventionen. Diese Konventionen beziehen sich auf angemessenes Handelsverhalten und die Pflege guter Beziehungen zwischen Banken und Kunden. Umfragen zeigen, dass nur ein kleiner Prozentsatz der Händler Konventionen befolgt, um Gewinne zu erzielen, während die Mehrheit darin ein Mittel zur Pflege von Beziehungen und zur Aufrechterhaltung eines guten Marktimages sieht. Mit dem Aufstieg des algorithmischen Handels ändern sich diese Konventionen, wobei der algorithmische Handel auf Plattformen wie EBS deutlich zunimmt, wo er mittlerweile über 70 % des Handels ausmacht.

  • 00:20:00 Dr. Alexis Stenfors diskutiert die Auswirkungen des algorithmischen Handels auf den Devisenmarkt. Während einige argumentieren, dass der Hochfrequenzhandel zu einem effizienteren Markt mit niedrigeren Transaktionskosten und besserer Liquidität führen kann, argumentieren andere, dass Algorithmen nicht dazu geeignet sind, Konventionen zu befolgen, die für menschliche Beziehungen gedacht sind. Händler, die elektronische Handelsplattformen nutzen, können enttäuscht sein, wenn sich der Markt bewegt, sobald sie versuchen zu handeln, und die Liquidität wird mittlerweile als kompliziert und schwer zu bestimmen angesehen. Unabhängig von der Haltung zu Algorithmen sind sich beide Seiten einig, dass sich die Devisenliquidität verändert und genauer betrachtet werden muss. Dr. Stenfors präsentiert Daten einer Handelsplattform, die im Jahr 2010 zu 50 % aus menschlichem und zu 50 % aus algorithmischem Handel bestand.

  • 00:25:00 Dr. Alexis Stenfors diskutiert das Volumen und die Liquidität des Devisenmarktes am Beispiel des Währungspaares Euro-Dollar. Er weist darauf hin, dass an drei Handelstagen die Gesamtmenge der Limit-Orders für Euro-Dollar 1,8 Billionen betrug, mit einem Spread von nur 0,08 Prozent, was es zu einem sehr liquiden Markt mit engen Spreads macht. Allerdings führt er weiter aus, dass nur weniger als ein Prozent aller Limit-Orders tatsächlich zu einer Transaktion führten und die mittlere Limit-Order-Lebensdauer nur 2,5 Sekunden betrug, was darauf hindeutet, dass der Markt zwar liquide erscheint, aber möglicherweise weniger liquide ist, als er scheint . Anschließend stellt er die Frage, ob schnell Liquidität abgerufen werden kann, und testet, ob sich der Markt bewegt, sobald ein Deal versucht wird.

  • 00:30:00 Dr. Alexis Stenfors bespricht seine Forschung über die Auswirkungen der Einreichung von Limitaufträgen auf die Liquidität im Devisenmarkt. Er analysierte 1,4 Millionen Limit-Order-Einreichungen und stellte fest, dass eine neue Limit-Order sofort Liquidität auf der anderen Seite des Limit-Order-Buchs hinzufügt, was für Hochfrequenzhändler von Vorteil ist. Allerdings verschwindet die Liquidität nach 0,1 Sekunden, und dies steht im Einklang mit der Vorstellung, dass algorithmischer Handel nur sehr kurzfristig gut für die Liquidität ist. Darüber hinaus weist er darauf hin, dass es in den letzten zehn Jahren einen deutlichen Wandel bei der Bereitschaft zur Unterstützung der Liquidität auf dem Devisenmarkt gegeben habe. Daher ist es wichtig, bei der Marktanalyse preisbasierte Liquidität, volumenbasierte Liquidität, gemeinschaftsbasierte Liquidität und geschwindigkeitsbasierte Liquidität zu berücksichtigen.

  • 00:35:00 Dr. Alexis Stenfors erklärt das Konzept der verschiedenen Ordertypen im Devisenhandel und ihre ethischen Implikationen. Er erklärt, dass Split-Orders verwendet werden, um große Orders in kleinere aufzuteilen, um zu verhindern, dass andere Händler ihre Orders stornieren, und um die informationsreiche Order zu verbergen. Allerdings sind Löffelbestellungen auf den meisten Märkten illegal, da sie einen falschen Eindruck von der Marktlage vermitteln. Ping-Befehle sollen versteckte Informationen über den Markt extrahieren und gelten nicht als umstritten, ihre Bedeutung variiert jedoch je nach Interpretation. In dem Abschnitt geht es auch um Dr. Stenfors‘ konservative Definition von Split-Orders, die in den fünf untersuchten Währungspaaren zu 15–20 % für Euro-Dollar und Dollar-Yen führte.

  • 00:40:00 Dr. Alexis Stenfors diskutiert die Verwendung von Split-Orders und ihre Aggressivität auf dem Devisenmarkt. Entgegen der landläufigen Meinung sind große Orders oft sehr aggressiv, und Split-Orders werden nicht nur verwendet, um größere Beträge zu verschleiern, sondern auch, um algorithmischen Händlern die Erteilung aggressiverer Orders zu ermöglichen. Die Reaktion auf eine geteilte Bestellung ist jedoch viel stärker als auf eine typische menschliche Bestellung, und Algorithmen erkennen dies schnell, was diese Strategien zur Auftragsaufteilung weniger erfolgreich macht. Dr. Stenfors geht auch auf das Thema Spoofing und Pinging ein und erklärt, dass wichtige Währungspaare wie der Euro-Dollar oder der Dollar-Yen entgegen der landläufigen Meinung äußerst empfindlich auf Informationen reagieren und daher sehr anfällig für Spoofing sind, während Pinging üblich ist Extrahieren Sie verborgene Informationen, indem Sie das Wasser mit Befehlen testen und etwaige Reaktionen beobachten.

  • 00:45:00 Dr. Alexis Stenfors bespricht einen Proxy, den er erstellt hat, um zu analysieren, wie stark „Pinging“ in verschiedenen Devisenmärkten auftritt. Eine Ping-Order ist eine Order, die storniert wird, bevor eine Marktveränderung eintritt, was sie zu einer potenziellen Ping-Order macht. Dr. Stenfors ermittelte anhand einer Datenbank, wie viele Aufträge potenzielle Ping-Aufträge sein könnten, und stellte fest, dass dieser Anteil bei Euro-Dollar- und Gelbmärkten bei etwa 10 %, bei Euro-Schweden bei bis zu 50 % und bei Dollar-Rubel bei 80 % liegt. Die interessante Tatsache hierbei ist, dass Pinging in den weniger gehandelten Märkten auf der Plattform eine größere Rolle zu spielen scheint. Das bedeutet, dass der Rubel-Handel auf der Plattform sehr groß ist, aber kein tatsächlicher Handel stattfindet und fast 80 % wahrscheinlich aus Ping-Orders durch algorithmische Händler bestehen. Dr. Stenfors schlug vor, dass es bei der Untersuchung der Liquidität viele Möglichkeiten gibt, sie zu untersuchen. Eine wichtige Sache sei es, sich verschiedene Strategien anzusehen und die Laufzeit der Order als Market-Making-Funktion zu ermitteln, insbesondere im Devisenmarkt Marktes wird immer mehr von Algorithmen erledigt.

  • 00:50:00 Dr. Alexis Stenfors erörtert die sich ändernde Liquidität des Devisenmarktes und die Notwendigkeit einer breiteren Palette von Kennzahlen zu ihrer Bewertung. Er hebt auch die Auswirkungen von Barrieren für Bestellstrategien hervor, die zu Abspaltungen, Spoofing und Pinging führen können. Obwohl diese Probleme auf den Aktienmärkten umfassend untersucht wurden, können ihre Auswirkungen auf die Liquidität auf dem Devisenmarkt trotz seiner größeren Größe sehr unterschiedlich sein. Dr. Stenfors empfiehlt Händlern, sich dieser Komplexität bewusst zu sein, unabhängig davon, wie sie Aufträge erteilen, und stellt Ressourcen für diejenigen bereit, die mehr erfahren möchten.
Forex Algo Trading | Algo Trading In FX Markets for Beginners | Dr. Alexis Stenfors
Forex Algo Trading | Algo Trading In FX Markets for Beginners | Dr. Alexis Stenfors
  • 2019.01.31
  • www.youtube.com
Join Dr. Alexis Stenfors, Economist, as he unveils the fascinating world of Forex Algo Trading in this insightful video. Discover why the FX market is a uniq...
 

Entwickeln und Backtesten Sie Ihre Handelsstrategien | Vollständiges Tutorial



Entwickeln und Backtesten Sie Ihre Handelsstrategien | Vollständiges Tutorial

Das Video beginnt mit der Vorstellung eines erfahrenen Quants, der Sie bei der Entwicklung und Umsetzung von Handelsstrategien mithilfe von Blueshift, einer cloudbasierten Plattform, unterstützt. Blueshift bietet umfassende Datensätze, darunter US-amerikanische und indische Aktienmärkte, sowie detaillierte Forex-Daten. Die Sitzung behandelt systematische Strategien, eine Einführung in Python, eine Einführung in Blueshift, die Erstellung wiederverwendbarer Vorlagen für Backtesting, technische Indikatoren, die Erstellung einer einfachen Strategie mithilfe eines einzelnen Indikators und die Verwaltung von Portfoliostrategien. Wichtig ist, dass die Sitzung keine Handelsempfehlungen bietet oder den Anspruch erhebt, narrensichere Strategien bereitzustellen.

Der Redner beleuchtet die unterschiedlichen Ansätze für Handelsstile, wie fundamental, technisch und quantitativ, und wie diese auf einzigartige Weise mit Trends, Mean-Reversion, Ausbrüchen und Carry umgehen. Der Entwurf einer systematischen Handelsstrategie umfasst die Auswahl von Wertpapieren, die Generierung von Kauf- und Verkaufssignalen, die Berechnung von Zielportfolios, die Ausführung von Geschäften und die kontinuierliche Verbesserung des Prozesses. Der Referent erläutert die für systematische Strategien erforderlichen Eingaben, einschließlich Preisdaten und deren Transformationen, grundlegende und nicht marktbezogene Informationen sowie Handelsregeln/-logik. Diese Regeln können auf der Grundlage der Hypothese eines Händlers oder durch datengesteuerte Techniken wie maschinelles Lernen und künstliche Intelligenz entwickelt werden.

Der Redner betont, wie wichtig es ist, Handelsstrategien durch Backtesting und Forward-Testing zu testen. Backtesting hilft Händlern, die Gültigkeit ihrer Hypothesen zu überprüfen, während Forward-Tests vor Verzerrungen und Fallstricken wie Data-Mining-Verzerrungen, Survivorship-Verzerrungen, Marktauswirkungsmodellierung und Look-Ahead-Verzerrungen schützen. Eine flexible Backtesting-Plattform ist für die Anpassung und Änderung von Strategien unerlässlich. Risikomanagement und Portfolioerstellung sind von entscheidender Bedeutung, da nicht alle Strategien in jedem Markt gut funktionieren. Der Referent gibt eine kurze Einführung in die Verwendung von Python-basiertem Code in der Blueshift-Plattform zur Strategieerstellung und zum Testen.

Das Video erklärt die vier wesentlichen Funktionen, die für das Backtesting von Handelsstrategien auf Blueshift erforderlich sind. Diese Funktionen sind „initialize“, das Anfangsparameter einrichtet, „before_trading_start“, das vor jeder Handelssitzung aufgerufen wird, „handle_data“, das bei jedem Eintreffen eines neuen Preisbalkens ausgeführt wird, und „analyze“, das für die Strategieanalyse verwendet wird. Der Referent demonstriert die Reihenfolge, in der diese Funktionen aufgerufen werden, und wie Händler ihren Code innerhalb jeder Funktion positionieren können. Der Abschnitt endet mit einer grundlegenden Einführung in die Verwendung von Python in der Blueshift-Plattform.

Für Zuschauer, die mit Python nicht vertraut sind, bietet das Video eine Einführung in die Python-Grundlagen. Es umfasst Variablen, Zeichenfolgen, Ganzzahlen, Gleitkommazahlen und Datenstrukturen wie Wörterbücher und Listen. Außerdem wird die Erstellung von Funktionen und Klassen in Python vorgestellt. Das Video befasst sich dann mit dem Blueshift-Workflow und erläutert die Schritte „Initialisieren“, „Before_Trading_Start“, „Handle_Data“ und „Analysieren“. Der Nutzen von Termin- und Bestellfunktionen wird hervorgehoben.

Der Moderator diskutiert die drei primären Ordnungsfunktionen in Blueshift. Die erste Funktion, „order_percent_target“, ermöglicht es Händlern, Positionen in zugrunde liegenden Vermögenswerten basierend auf der Gewichtung des Zielportfolios einzugehen. Die zweite Funktion „get_open_orders“ liefert die Anzahl der ausstehenden Bestellungen und die dritte Funktion „cancel_order“ ermöglicht die Stornierung von Bestellungen. Der Moderator betont die Bedeutung der Kontrolle der Handelsumgebung und demonstriert Funktionen wie „set_commission“, „set_slippage“ und „set_account_currency“. Die „Kontext“- und „Daten“-Objekte in Blueshift werden erläutert und ihre Rolle bei der Erfassung des Algorithmusstatus und dem Zugriff auf Daten veranschaulicht. Ein Beispiel veranschaulicht den Zugriff auf das Portfolio und die Daten für eine einfache Buy-and-Hold-Strategie mithilfe der Funktion „Historie“. Das Konzept der Planung mithilfe der Funktion „Schedule“ wird eingeführt, sodass Benutzer festlegen können, wann bestimmte Funktionen aufgerufen werden sollen.

Das Tutorial konzentriert sich auf die Erstellung einer Vorlage, um die Strategieentwicklung zu optimieren und sich wiederholenden Code zu vermeiden. Es werden technische Indikatorbibliotheken wie TLE und Standardbibliotheken wie Pandas und Numpy importiert. Das Wertpapieruniversum wird auf die wichtigsten Indizes eingegrenzt und die Variable „Kontext“ wird als Wörterbuch zum Speichern von Strategieparametern initialisiert. Zu diesen Parametern gehören Indikatorrückblick, Kauf-/Verkaufsschwellenwerte, gleitende Durchschnittsperioden, RSI, B-Bänder, ATR und Handelsfrequenz. Ziel dieser Vorlage ist es, den Boilerplate-Code zu minimieren und Parameter für einfache Änderungen zu standardisieren.

Der Redner stellt eine Variable zur Steuerung des Handels und zur Erstellung eines Portfolios mit Gewichtungen für jedes Instrument im Universum vor. Zu Demonstrationszwecken setzen sie Provision und Slippage auf Null. Die Funktion „handle_data“ ist so definiert, dass der Handel alle 15 Minuten ausgeführt wird. Die Funktion „run_strategy“ wird zur Hauptfunktion zum Ausführen der Strategie. Es ruft frühere Preise ab und berechnet Gewichtungen vor dem Neuausgleich mithilfe der Funktion „context.universe.prices“. Die „Rebalance“-Funktion durchläuft alle Wertpapiere im Universum und erteilt Aufträge, um Zielgewichte zu erreichen. Eine anonyme Funktion wird definiert, um das Kontextportfolio und die Gewichtungen zu drucken, und eine „Advisor“-Klasse wird erstellt, um das Gewichtungsobjekt zu berechnen.

Der Referent erklärt, wie man Eingaben für die Klasse „Berater“ definiert, einschließlich des Namens und der Signalfunktion, und wie man das Aktienauswahluniversum übergibt. Sie umfassen die Initialisierung und Speicherung der Leistung des Beraters sowie die Definition der Hauptfunktion, die die Signalfunktion aufruft, um Kauf-/Verkaufssignale zu generieren. Der Redner betont die Definition der Signalfunktion auf der Grundlage technischer Indikatoren, die oft als gewichtete Funktionen vergangener Preise ausgedrückt werden. Sie empfehlen, sich auf theoretische Arbeiten von Experten wie Cliff Asness von AQR Capital Management zu beziehen.

Technische Indikatoren und ihre Korrelation zum Markt werden auf der Grundlage statistischer Analysen unter Verwendung der Hauptkomponentenanalyse diskutiert. Technische Indikatoren fungieren als Filter für vergangene Preise oder Renditen und erfassen lang- oder kurzfristige Trends durch Filterung hoch- oder niederfrequenter Daten. Allerdings können technische Indikatoren sich selbst erfüllende Prophezeiungen sein und sind anfällig für bestimmte Arten von Handelsalgorithmen, die zu Momentum- oder Stop-Loss-Jagd führen können. Bei der Entwicklung und dem Backtesting von Handelsstrategien ist es wichtig, über ein Portfolio verschiedener Indikatoren zu verfügen.

Der Dozent erklärt den Import der technischen Analysebibliothek und listet die verfügbaren technischen Indikatoren auf. Am Beispiel von Bollinger-Bändern demonstriert der Kursleiter die Funktion „Bbands“, um den Wert der letzten Zeile abzurufen. Andere Funktionen wie RSI, MACD, Fibonacci-Unterstützung, Widerstand usw. werden ebenfalls vorgestellt. Der Kursleiter erklärt die Funktion „get_price“ und die Funktion „handle_data“, die prüft, ob es Zeit für den Handel für jeden Zeitraum ist. Die Funktion „run_strategy“ sucht mithilfe der Funktion „advisor_compute_signal_price“ nach geeigneten Argumenten, gefolgt von der Funktion „rebalance“, um Aufträge für Zielprozentsätze zu erteilen. Abschließend dient die Funktion „Analysieren“ der Strategieanalyse.

Der Redner konzentriert sich auf die Verwaltung von Strategieportfolios zur Steigerung der algorithmischen Handelsgewinne. Anstatt sich auf eine einzige Strategie zu verlassen, empfiehlt es sich, mehrere Strategien gleichzeitig oder in unterschiedlichen Zeiträumen auszuführen. Es werden vier Methoden zur Verwaltung von Strategieportfolios besprochen: Bildung eines Ausschusses, Verwendung eines Regimewechselmodells, dynamische Allokation und faktorbasiertes Investieren. Mittelung kann die Signalstabilität verbessern. Der Code der Strategie sieht die Hinzufügung eines Agenten vor, der für die Auswahl der Berater und die Kapitalzuweisung verantwortlich ist. Der Agent verwendet eine Gewichtungsfunktion, um die Beratergewichte zu aktualisieren, die sich auf die Neuausgleichsfunktion auswirken.

Der Referent erklärt, wie man Portfolios basierend auf der Anzahl der Berater definiert und gewichtet, wobei jedem Berater die gleiche Zuteilung zukommt. Sie demonstrieren die Schaffung separater Fachberater und eines Agenten, der das Kapital unter ihnen verteilt. Ein Backtest mittels QuickBacktest zeigt im Vergleich zu Einzelfällen eine deutlich verbesserte Leistung. Der Redner betont die Bedeutung des Drawdowns in einer Handelsstrategie und schlägt vor, sich das Sortino-Verhältnis und die Stabilität der Gewinn- und Verlustkurve anzusehen. Das gleichgewichtete durchschnittliche Input-Portfolio verbessert die Leistung erheblich, es gibt jedoch Raum für weitere Verbesserungen.

Der Redner stellt das Konzept des „No-Regret-Trading“ vor, bei dem es darum geht, die Anlagestrategie mit der besten Performance in einem schwer vorhersehbaren Markt zu ermitteln. Anstatt sich auf eine einzelne Investition zu verlassen, besteht die Strategie darin, die Gewichtung jeder Investition zu variieren. Der Redner empfiehlt, zur Bestimmung der Gewichtungen den exponentiellen Gradientenalgorithmus zu verwenden und diese basierend auf der Reaktion des Portfolios auf Marktszenarien anzupassen. Für die Kapitalallokation wird auch das Kelly-Kriterium vorgeschlagen, das die Rendite gegenüber der Varianz auf der Grundlage der geometrischen Brownschen Bewegung maximiert.

Der Referent erklärt die Ausgabe von Gewichten und wie sie sich bei verschiedenen Beratern unterscheiden. Sie testen ein Zufallssignal, das im Idealfall im Vergleich zu anderen Signalen weniger Zuteilung erhält, wenn es wirklich zufällig ist. Der Redner diskutiert die Agentenfunktion, die eine Liste von Beratern und einen Lernratenparameter verwendet und die Gewichtsfunktion berechnet. Es durchläuft die Beraterliste, berechnet das Beratersignal, aggregiert sie sektorweise und aktualisiert die Kontextgewichtungen basierend auf der berechneten Gewichtung. Der Abschnitt endet mit Richtlinien zur Strategieentwicklung, einschließlich der Vermeidung von Überanpassungen, der Überprüfung des Konto-Hebels und der Bereitstellung einer Liste von Demo-Strategien, die die Zuschauer erkunden können.

Der Referent erörtert verschiedene Methoden des Forward-Testings, beispielsweise den Papierhandel oder den Handel mit geringem Kapital auf Live-Märkten. Sie erwähnen, dass BlueShift derzeit weder PI Torch noch Jupiter Notebook unterstützt, sondern plant, Keras und TensorFlow zu unterstützen. Die Plattform ist nicht auf indische Märkte beschränkt und kann auf US-amerikanische und indische Aktiendaten sowie FX-Daten zugreifen. Der Redner stellt fest, dass BlueShift derzeit nicht über integrierte Debugging-Tools verfügt, erwägt jedoch, diese in Zukunft hinzuzufügen.

Der Redner spricht über Options-Backtesting und erwähnt, dass die meisten Plattformen, die es anbieten, unzuverlässig sind oder eine umfassende Datenbereinigung und -aufbereitung erfordern. Sie weisen außerdem darauf hin, dass Indian Gravitons nur liquide Futures unterstützt und keine Datenfeeds von Drittanbietern zulässt. Der empfohlene Mindestzeitraum für das Backtesting hängt von der Handelshäufigkeit ab, und obwohl für indische Märkte Daten von einer Minute verfügbar sind, sind Optimierungsläufe aufgrund technologischer Einschränkungen nicht effizient. BlueShift erhebt keine Gebühren und es gibt keine Beschränkungen hinsichtlich der Anzahl gleichzeitiger Backtests, solange der Website-Verkehr diese bewältigen kann. Backtests für PSA und die Verwendung von Python-Paketen sind möglich, aus Sicherheitsgründen gibt es jedoch eine eingeschränkte Liste verfügbarer Pakete.

Der Referent erklärt, dass Backtesting ein entscheidender Schritt bei der Entwicklung und Bewertung von Handelsstrategien ist. Es hilft festzustellen, ob eine Strategie realisierbar und profitabel ist, bevor sie in Live-Märkten eingesetzt wird. Sie unterstreichen, wie wichtig es ist, beim Backtesting Transaktionskosten, Slippage und andere reale Faktoren zu berücksichtigen, um realistische Ergebnisse sicherzustellen.

Der Redner stellt die BlueShift-Plattform vor, die eine Umgebung für Backtesting und den Einsatz von Handelsstrategien bietet. BlueShift unterstützt Backtesting auf indischen Aktien-, US-Aktien- und Devisenmärkten. Benutzer können ihre Strategien mit Python schreiben und testen und verschiedene integrierte Funktionen und Bibliotheken nutzen. Die Plattform ermöglicht es den Nutzern auch, ihre Strategien auf Papier zu handeln oder mit echtem Kapital zu handeln, je nach ihren Vorlieben.

Der Redner betont die Bedeutung von Forward-Tests, bei denen es darum geht, eine Strategie mit einer geringen Kapitalmenge auf Live-Märkten einzusetzen. Dies hilft dabei, die Leistung und das Verhalten der Strategie unter Echtzeitbedingungen zu validieren. Sie erwähnen, dass BlueShift derzeit Forward-Tests für indische Märkte unterstützt und Benutzer Papierhandel mit einem virtuellen Kapital von bis zu 1 Crore (10 Millionen) Indischen Rupien durchführen können.

Auch Options-Backtesting wird diskutiert, wobei der Redner erwähnt, dass viele bestehende Plattformen für Options-Backtesting unzuverlässig sind oder eine umfangreiche Datenbereinigung und -vorbereitung erfordern. Sie weisen darauf hin, dass BlueShift derzeit kein Options-Backtesting unterstützt, aber möglicherweise erwägt, es in Zukunft hinzuzufügen.

Bezüglich der Datenverfügbarkeit erwähnt der Redner, dass BlueShift historische Daten für indische Aktien, US-Aktien und Devisenmärkte bereitstellt. Sie stellen jedoch fest, dass Optimierungsstrategien mit Ein-Minuten-Daten für indische Märkte aufgrund technologischer Einschränkungen möglicherweise nicht effizient sind.

Der Redner stellt klar, dass BlueShift keine Gebühren für das Backtesting oder die Nutzung der Plattform erhebt. Benutzer können so viele Backtests durchführen, wie sie möchten, solange der Website-Verkehr die Belastung bewältigen kann. Sie erwähnen auch, dass BlueShift aus Sicherheitsgründen eine eingeschränkte Liste verfügbarer Python-Pakete hat, Benutzer jedoch weiterhin beliebte Pakete wie Pandas und Numpy nutzen können.

Der Redner betont die Bedeutung gründlicher Backtesting- und Forward-Testings bei der Strategieentwicklung. Sie ermutigen Benutzer, die BlueShift-Plattform für Backtests und die Umsetzung ihrer Handelsstrategien zu nutzen und dabei die in der Präsentation besprochenen Einschränkungen und Überlegungen zu berücksichtigen.

  • 00:00:00 Der Moderator stellt einen erfahrenen Quant vor, der den Zuschauern erklärt, wie man Handelsstrategien mithilfe von Blueshift, einer cloudbasierten Plattform für die Strategieentwicklung, entwickelt und umsetzt. Der Quant beschreibt, dass Blueshift über Datensätze verfügt, die US-amerikanische und indische Aktienmärkte umfassen, sowie betrogene Forex-Daten mit Daten auf Minutenebene. Die Sitzung umfasst kurze Punkte zu systematischen Strategien, eine kurze Einführung in Python, eine Einführung in Blueshift, die Erstellung einer wiederverwendbaren Vorlage für Backtests, technische Indikatoren, die Erstellung einer einfachen Strategie mithilfe eines einzelnen technischen Indikators und die Verwaltung einer Portfoliostrategie auf verschiedene Arten Wege. In der Sitzung geht es nicht um Handelsempfehlungen oder darum, die besten Strategien vorzustellen, die immer funktionieren.

  • 00:05:00 Der Redner erwähnte, dass verschiedene Handelsstile wie fundamental, technisch und quantitativ den Trend, die Mean-Reversion, Ausbrüche und den Carry auf unterschiedliche Weise behandeln. Sie diskutierten auch darüber, wie man eine systematische Handelsstrategie entwerfen kann, die die Auswahl des Wertpapieruniversums, die Generierung von Kauf- und Verkaufssignalen, die Berechnung von Zielportfolios, die Umsetzung der Strategie und die kontinuierliche Verbesserung des Prozesses umfasst. Darüber hinaus erläuterte der Redner die Eingaben zur Entwicklung systematischer Strategien, wie Preise und ihre Transformationen, grundlegende und nicht marktbezogene Informationen sowie Handelsregeln oder -logik, die anhand der Hypothese eines Händlers oder dadurch entwickelt werden können, dass die Daten mithilfe von maschinellem Lernen die Regeln bestimmen und künstliche Intelligenz.

  • 00:10:00 Der Redner erörtert die Bedeutung des Testens von Handelsstrategien, einschließlich Backtesting und Forward-Testing. Backtesting ermöglicht es Händlern, durch das Testen ihrer Strategien festzustellen, ob ihre Hypothese richtig ist, während Forward-Tests vor Verzerrungen wie Data-Mining-Bias, Survivorship-Bias, Marktauswirkungsmodellierung und Look-Ahead-Bias schützen. Der Redner betont die Notwendigkeit einer flexiblen Backtesting-Plattform zur Anpassung und Änderung von Strategien, betont aber auch die Bedeutung der Portfolioerstellung und des Risikomanagements, da nicht alle Strategien in allen Märkten gut funktionieren. Abschließend gibt der Redner eine kurze Einführung in die Verwendung von Python-basiertem Code in der Blue-Shift-Plattform zum Erstellen und Testen von Handelsstrategien.

  • 00:15:00 Der Referent erklärt die vier verschiedenen Funktionen, die für das Backtesting von Handelsstrategien auf einer bestimmten Plattform erforderlich sind. Die erste Funktion heißt initialize und dient zum Einrichten der Anfangsparameter für das Backtesting. Der zweite wird vor Handelsbeginn aufgerufen, der jeden Tag vor Eröffnung der Handelssitzung aufgerufen wird. Die dritte Funktion ist „Daten verarbeiten“ und wird bei jedem Eintreffen eines neuen Preisbalkens aufgerufen. Die letzte Funktion heißt „Analyse“. Der Sprecher zeigt auch die Reihenfolge, in der jede Funktion basierend auf einem ausgewählten Datensatz aufgerufen wird, und wie man bestimmen kann, wo der Code in jeder Funktion eingefügt werden soll. Der Abschnitt endet mit einer kurzen Einführung in die Verwendung von Python zum Codieren.

  • 00:20:00 Python-Grundlagen werden für diejenigen erklärt, die mit der Sprache möglicherweise nicht vertraut sind. Die Verwendung von Variablen, Zeichenfolgen, Ganzzahlen und Gleitkommazahlen wird ebenso besprochen wie Datenstrukturen wie Wörterbücher und Listen. Außerdem wird die Erstellung von Funktionen und Klassen in Python vorgestellt. Anschließend werden im Video die vier Schritte im Blueshift-Workflow erläutert: Initialisieren, vor_Trading_Start, Handle_Daten und Analysieren. Der Nutzen von Termin- und Bestellfunktionen wird ebenfalls erläutert.

  • 00:25:00 Der Moderator bespricht die drei wichtigsten Bestellfunktionen, die in Blue Shift, einer Handelsplattform, verwendet werden. Die erste Funktion ist das Order-Prozent-Ziel, mit dem Sie Positionen in zugrunde liegenden Vermögenswerten entsprechend der Gewichtung Ihres Zielportfolios eingehen können. Die zweite Funktion ist „Offene Aufträge abrufen“, die die Anzahl der auszuführenden Aufträge angibt, und die dritte Funktion ist „Auftrag stornieren“. Darüber hinaus erklärt der Moderator, wie wichtig es ist, Ihre Handelsumgebung zu kontrollieren, und liefert Beispiele, wie Sie dies mithilfe von Funktionen wie Festlegen der Provision, Festlegen der Slippage und Festlegen der Kontowährung umsetzen können. Der Moderator erklärt außerdem den Kontext und die Datenobjekte in Blue Shift, wie sie zum Erfassen des Status des Algorithmus und zum Zugriff auf Daten verwendet werden, und liefert ein Beispiel dafür, wie Sie in einer einfachen Buy-and-Hold-Strategie auf Ihr Portfolio und Ihre Daten zugreifen können die History-Funktion. Abschließend stellt der Moderator das Konzept der Planung mithilfe der Zeitplanfunktion vor, mit der definiert werden kann, wann eine Funktion in Bezug auf Tage und Uhrzeit aufgerufen werden soll.

  • 00:30:00 Das Tutorial konzentriert sich auf die Erstellung einer Vorlage, die Händler verwenden können, um sich wiederholenden Code zu vermeiden. Das Tutorial importiert technische Indikatorbibliotheken wie TLE und Standardbibliotheken für Pandas und Numpy. Das Universum wird dann auf zwei Hauptindizes reduziert und die Kontextvariable wird als Wörterbuch zum Speichern von Parametern für Strategien an einem einzigen Ort initialisiert. Zu den Parametern gehören der Indikatorrückblick, der Schwellenwert für Kauf und Verkauf sowie Zeiträume für sich schnell und langsam bewegende Durchschnitte, RSI, B-Bänder und ATR sowie die Handelshäufigkeit. Diese Vorlage ist nützlich, um den Boilerplate-Code zu minimieren und Parameter für einfache Änderungen zu standardisieren.

  • 00:35:00 Der Sprecher fügt eine Variable hinzu, um den Handel zu steuern und ein Gewichtungsportfolio für jedes Instrument im Universum zu erstellen. Zu Demozwecken setzen sie die Provision und den Slippage auf Null. Die Funktion handle_data ist so definiert, dass der Handel alle 15 Minuten erfolgt. Die Funktion run_strategy wird als Hauptfunktion zum Ausführen der Strategie erstellt. Die Funktion ruft context.universe.prices auf, um die vergangenen Preise der ausgewählten Futures abzurufen und die Gewichtungen vor dem Neuausgleich zu berechnen. Mit der Rebalance-Funktion werden alle Wertpapiere im Universum durchgesehen und eine Order zur Erreichung der Zielgewichte platziert. Der Sprecher definiert außerdem eine anonyme Funktion zum Drucken des Kontextportfolios und der Gewichtungen am Ende und erstellt eine Klasse namens „Advisor“, um das Gewichtungsobjekt zu berechnen.

  • 00:40:00 Der Referent erläutert, wie die Eingaben für die Beraterklasse definiert werden, einschließlich des Namens und der Signalfunktion, und wie das Aktienauswahluniversum weitergegeben wird. Sie gehen auch darauf ein, wie die Leistung des Beraters initialisiert und gespeichert wird, und definieren die Hauptfunktion, die die Signalfunktion aufruft, um Signale für den Kauf oder Verkauf von Aktien zu generieren. Der Redner betont, wie wichtig es ist, die Signalfunktion auf der Grundlage technischer Indikatoren zu definieren, die als gewichtete Funktionen vergangener Preise ausgedrückt werden können. Sie empfehlen außerdem, sich theoretische Arbeiten von Experten auf diesem Gebiet wie Cliff Asness von AQR Capital Management anzusehen.

  • 00:45:00 Der Redner diskutiert technische Indikatoren und deren Korrelation zum Markt auf der Grundlage statistischer Analysen durch Hauptkomponentenanalyse. Technische Indikatoren können als eine Art Filter für vergangene Preise oder Renditen betrachtet werden, der hoch- oder niederfrequente Daten filtert, um lang- oder kurzfristige Trends zu erkennen. Allerdings können technische Indikatoren sich selbst erfüllende Prophezeiungen sein, die sie zum Geldverdienen nützlich machen, aber bestimmten Kategorien von Handelsalgorithmen unterliegen, die zu Momentum- oder Stop-Loss-Jagd führen können. Darüber hinaus bedeutet die bloße Tatsache, dass ein Momentum-Indikator Momentum anzeigt, nicht zwangsläufig, dass sich der Markt im Momentum befindet. Daher kann es bei der Entwicklung und dem Backtesting von Handelsstrategien hilfreich sein, über ein Portfolio verschiedener Indikatoren zu verfügen.

  • 00:50:00 Der Dozent erklärt den Import der technischen Analysebibliothek und die Liste der verfügbaren technischen Indikatoren. Sie verwenden das Beispiel der Bollinger-Bänder-Funktion, die die Bibliotheksfunktion „Bbands“ aufruft, um den Wert der letzten Zeile zurückzugeben und andere Funktionen wie RSI, MACD, Fibonnaci-Unterstützung, Widerstand usw. anzuzeigen. Der Kursleiter erklärt auch die Funktion „Gate-Preis“ und die Funktion „Daten verarbeiten“, die für jeden Zeitraum aufgerufen wird, um zu prüfen, ob es Zeit für den Handel ist. Die Funktion „Run Strategy“ sucht dann mithilfe der Funktion „Advisor Compute Signal Price“ nach geeigneten Argumenten, gefolgt von der Funktion „Rebalancing“, die alle Wertpapiere im Universum durchläuft, um eine Order zum Erreichen des Zielprozentsatzes zu platzieren. Abschließend wird die Funktion „Analysieren“ verwendet, um die Backtest-Strategie zu analysieren.

  • 00:55:00 Der Redner diskutiert die Verwaltung von Strategieportfolios zur Verbesserung der algorithmischen Handelsgewinne. Anstatt sich auf eine einzige Strategie zu verlassen, schlägt der Referent vor, mehrere Strategien gleichzeitig oder in unterschiedlichen Zeiträumen durchzuführen. Der Referent bietet vier Methoden zur Verwaltung von Strategieportfolios an: Bildung eines Ausschusses, Regimewechselmodell, dynamische Allokation und faktorbasiertes Investieren. Indem wir einen Durchschnitt bilden, können wir die Stabilität unseres Signals verbessern. Der Code der Strategie sieht die Hinzufügung eines Agenten vor, der für die Auswahl der Berater und die Kapitalzuweisung verantwortlich ist. Der Agent verwendet eine Gewichtungsfunktion, um die Gewichtungen jedes Beraters zu aktualisieren, die in der Neuausgleichsfunktion berücksichtigt werden.

  • 01:00:00 Der Referent erklärt, wie sie Portfolios basierend auf der Anzahl der Berater definieren und gewichten, wobei alle Berater gleich verteilt werden. Sie zeigen, wie man separate Fachberater erstellt und dann einen Agenten erstellt, der das Kapital zwischen ihnen aufteilt. Sie führen einen Backtest mit QuickBacktest durch, der eine deutliche Leistungsverbesserung im Vergleich zu den Einzelfällen zeigt. Der Redner betont die Bedeutung des Drawdowns in einer Handelsstrategie und empfiehlt, auf die Sortino-Ratio und die Stabilität der Gewinn- und Verlustkurve zu achten. Insgesamt hat das gleichgewichtete durchschnittliche Input-Portfolio die Leistung erheblich verbessert, der Sprecher weist jedoch darauf hin, dass noch Raum für Verbesserungen besteht.

  • 01:05:00 Der Redner diskutiert ein Konzept namens „No-Regret-Trading“, bei dem versucht wird, herauszufinden, welche Anlagestrategie in einem Markt, in dem es schwierig ist, zukünftige Trends vorherzusagen, am besten abschneidet. Die Strategie besteht darin, die Gewichtungen jeder Investition zu variieren, anstatt sich darauf zu verlassen, dass eine Investition die anderen übertrifft. Der Referent empfiehlt, zur Bestimmung der Gewichtung den exponentiellen Gradientenalgorithmus zu verwenden, der die Gewichtung entsprechend der Reaktion des Portfolios auf Marktszenarien anpasst. Der Redner schlägt außerdem vor, die Kelly-Kriterien für die Kapitalallokation und die Maximierung der Rendite gegenüber der Varianz auf der Grundlage der geometrischen Brownschen Bewegung zu verwenden, um die Gewichtung zu bestimmen.

  • 01:10:00 Der Referent erklärt die Ausgabe der Gewichte und wie sie sich bei verschiedenen Beratern unterscheiden. Anschließend testen sie ein Zufallssignal, das im Idealfall im Vergleich zu anderen Signalen weniger Zuteilung erhalten sollte, wenn die Funktion wirklich zufällig ist. Der Redner spricht auch über die Agentenfunktion, die eine Liste von Beratern und einen Lernratenparameter verwendet und die Gewichtsfunktion berechnet. Es durchläuft die Beraterliste, berechnet das Beratersignal, addiert sie sektorweise und sendet die berechnete Gewichtung zurück an die Kontextgewichtungen. Anschließend schließt der Redner den Abschnitt mit einigen Richtlinien zur Strategieentwicklung ab, einschließlich der Vermeidung von Überanpassungen und der Überprüfung der Kontohebelwirkung, und stellt den Zuschauern eine Liste von Demostrategien zur Verfügung, die sie erkunden können.

  • 01:15:00 Der Redner diskutiert die verschiedenen Möglichkeiten des Forward-Testings, einschließlich des Papierhandels oder des Handels mit einer kleinen Kapitalmenge in einem Live-Markt. Sie erwähnen auch, dass BlueShift derzeit weder PI Torch noch Jupiter Notebook unterstützt, sondern plant, Keras und TensorFlow zu unterstützen. Darüber hinaus ist die Plattform nicht auf indische Märkte beschränkt und kann auf US-amerikanische und indische Aktiendaten sowie FX-Daten zugreifen. Der Redner stellt außerdem fest, dass BlueShift derzeit nicht über integrierte Debugging-Tools verfügt, erwägt jedoch, diese in Zukunft hinzuzufügen.

  • 01:20:00 Der Redner geht auf das Backtesting von Optionen ein und erklärt, dass die meisten Plattformen, die es anbieten, unzuverlässig sind oder viel Datenbereinigung und -organisation erfordern. Sie erwähnen auch, dass Indian Gravitons nur liquide Futures unterstützt und die Einspeisung von Daten Dritter nicht zulässt. Der empfohlene Mindestzeitraum für das Backtesting hängt von der Handelshäufigkeit ab. Für indische Märkte stehen zwar Ein-Minuten-Daten zur Verfügung, Optimierungsläufe sind jedoch aufgrund mangelnder Technologie und der Bevorzugung der Optimierung von Parametern auf der Grundlage erwarteter Renditen nicht effizient. Für Blue Shift fallen keine Gebühren an und es gibt keine Beschränkungen hinsichtlich der Anzahl separater Backtests, die gleichzeitig ausgeführt werden können, solange der Website-Verkehr dies zulässt. Es ist auch möglich, Backtesting für PSA durchzuführen und Python-Pakete zu verwenden, allerdings gibt es aus Sicherheitsgründen eine eingeschränkte Liste verfügbarer Pakete.
Python Trading Strategies | Create Trading Strategies And Backtest | Portfolio Management Techniques
Python Trading Strategies | Create Trading Strategies And Backtest | Portfolio Management Techniques
  • 2018.08.29
  • www.youtube.com
Check out this comprehensive tutorial on Python Trading Strategies and Portfolio Management Techniques. In this step-by-step guide, you'll learn how to creat...
 

Forex-Handelsstrategien | Handelsideen entwickeln und Backtests durchführen | Vollständiges FX-Tutorial



Forex-Handelsstrategien | Handelsideen entwickeln und Backtests durchführen | Vollständiges FX-Tutorial

Während dieses informativen Webinars gibt der Referent einen umfassenden Überblick über Quantiacs BlueShift, eine leistungsstarke Strategieentwicklungsplattform für systematische Handelsstrategieforschung und Backtesting. Die Plattform bietet eine Reihe von Features und Funktionalitäten, die sie zu einem idealen Werkzeug für Händler machen.

BlueShift ist eine cloudbasierte Plattform, sodass Benutzer von überall darauf zugreifen und unterwegs Strategien entwickeln und analysieren können. Es bietet Benutzern integrierte Finanzdatensätze und ermöglicht so den bequemen Zugriff auf relevante Marktdaten für die Strategieentwicklung.

Während sich das Webinar hauptsächlich auf den Devisenmarkt (FX) konzentriert, unterstützt die BlueShift-Plattform auch den Aktien- und Terminhandel auf verschiedenen Märkten. Es wird betont, dass das geistige Eigentum der auf der Plattform entwickelten Backtesting-Strategien vollständig dem Benutzer gehört, wodurch Vertraulichkeit und Eigentum gewährleistet sind.

Der Redner geht auf die Natur des Devisenmarkts ein und hebt seinen Status als größter dezentraler Markt mit einem atemberaubenden täglichen Handelsvolumen von etwa 5 Billionen Dollar hervor. Von diesem Volumen entfallen rund 300 Milliarden Dollar auf den Einzelhandel. Der Redner erörtert mehrere Faktoren, die den Devisenmarkt vom Aktienmarkt unterscheiden, wie z. B. eine höhere Hebelwirkung, einfachere Leerverkaufsmöglichkeiten und eine relativ geringere Volatilität.

Um zu verstehen, was den Devisenmarkt antreibt, weist der Redner auf die Bedeutung makroökonomischer Faktoren wie Zahlungsbilanz, Zinssätze, Inflation, Wirtschaftswachstum und Finanzpolitik hin. Sie erwähnen auch, dass Unternehmens- und Absicherungsströme sowie plötzliche politische und geopolitische Veränderungen erhebliche Auswirkungen auf den Markt haben können. Es ist jedoch wichtig zu beachten, dass es keine standardisierte oder allgemein akzeptierte Methode zur Bewertung des Devisenmarktes gibt. Der Redner erwähnt kurz Methoden wie die Kaufkraftparität und den realen effektiven Wechselkurs, wobei fortgeschrittenere Techniken von großen Institutionen und dem Internationalen Währungsfonds (IWF) bevorzugt werden. Darüber hinaus betont der Redner die Bedeutung der kurzfristigen Finanzierungsmärkte für die Liquiditätsförderung und die Bestimmung der Übernacht-Rollover-Kosten.

Wenn es um die Entwicklung und das Backtesting von Forex-Handelsstrategien geht, stellt der Referent verschiedene Ansätze vor. Wirtschaftsmodelle wie das Geldmodell und das Verhaltensgleichgewichts-Wechselkursmodell verwenden ökonometrische Methoden zur Datenanalyse. Datengesteuerte Modelle, einschließlich Zeitreihenprognosen, nichtlinearer Zeitreihen und neuronaler Netze, werden ebenfalls als praktikable Optionen für den Devisenhandel mit kurzer Laufzeit diskutiert. Die BlueShift-Plattform wird als benutzerfreundliche Oberfläche präsentiert, die die Strategieentwicklung und das Testen erleichtert. Benutzer können unter anderem Datensätze, Startkapital und Metadatenbeschreibungen eingeben. Die Plattform bietet Tools für vollständiges Backtesting sowie die Durchführung schneller Backtests. BlueShift basiert auf der Zipline-API von Python und bietet Benutzern eine Standardstrategievorlage, mit der sie ihren Entwicklungsprozess beginnen können.

Der Referent geht auf die Grundstruktur von Forex-Handelsstrategien und die für das Backtesting erforderlichen Schlüsselfunktionen ein. Sie erläutern die Funktion „initialize“, die Baptist-Parameter und Abrechnungsparameter einrichtet. Die Funktion „Vor Handelsbeginn“ wird einmal täglich zu Beginn der Handelssitzung aufgerufen, gefolgt von der Funktion „Daten verwalten“, die jede Minute für den Minidatensatz aufgerufen wird. Schließlich wird die Funktion „Strategie“ über die API für eine bestimmte Zeit und ein bestimmtes Datum geplant und die Regeln werden vom Benutzer definiert. Nach der Durchführung eines kurzen Backtests können Benutzer auf die Registerkarte „Baptist“ zugreifen, um verschiedene Datensätze anzuzeigen, darunter die Eigenkapitalkurve, Tear-Sheets und andere Statistiken.

Das vom Referenten erläuterte Tearsheet stellt eine Reihe von Berichten zur Analyse von Handelsstrategien bereit. Es umfasst Parameter wie das maximale Omega-Verhältnis, das Sortino-Verhältnis, die Schiefe, die Kurtosis, die Stabilität der Zeitreihe und mehr. Der Redner demonstriert den Arbeitsablauf mit BlueShift, der die Initialisierung, das Durchgehen „vor Handelsbeginn“ und die „Datenverarbeitung“ sowie die Nutzung verschiedener API-Funktionen wie Planung, Festlegen von Provisionen, Festlegen von Slippage und Festlegen der Kontowährung umfasst. Der Redner erwähnt die Verfügbarkeit einer Standardvorlage für Forex-Handelsstrategien.

Der Redner erwähnt die Verfügbarkeit einer Standardvorlage für Forex-Handelsstrategien auf der BlueShift-Plattform. Diese Vorlage bietet Benutzern einen Ausgangspunkt für die Entwicklung ihrer Strategien, indem sie ihre Ein- und Ausstiegsregeln, Risikomanagementparameter und andere Anpassungsoptionen definieren.

Die BlueShift-Plattform bietet außerdem eine breite Palette integrierter technischer Indikatoren, darunter gleitende Durchschnitte, Oszillatoren und Trendfolgeindikatoren, die zur Erstellung von Handelsregeln und -signalen verwendet werden können. Benutzer können diese Indikatoren mit ihrer eigenen benutzerdefinierten Logik kombinieren, um einzigartige und personalisierte Strategien zu erstellen.

Um die Leistung einer Handelsstrategie zu validieren und zu bewerten, betont der Redner die Bedeutung der Durchführung eines strengen Backtestings. BlueShift ermöglicht es Benutzern, ihre Strategien anhand historischer Daten zu testen, um reale Handelsszenarien zu simulieren. Die Plattform bietet umfassende Leistungskennzahlen, darunter Rentabilität, Drawdown-Analyse, risikobereinigte Renditen und verschiedene Kennzahlen wie Sharpe Ratio, Sortino Ratio und Calmar Ratio.

Sobald eine Strategie einem Backtest unterzogen und validiert wurde, schlägt der Redner vor, dass der nächste Schritt darin besteht, sie in einer Live-Handelsumgebung einzusetzen. BlueShift bietet die Integration mit mehreren Brokern, sodass Benutzer ihre Strategien direkt von der Plattform aus ausführen können. Diese nahtlose Integration gewährleistet einen reibungslosen Übergang von der Strategieentwicklung zum Live-Handel.

Der Redner schließt das Webinar ab, indem er die Vorteile der Verwendung von BlueShift für die Entwicklung und das Backtesting von Forex-Strategien hervorhebt. Die Plattform bietet eine benutzerfreundliche Oberfläche, Zugriff auf verschiedene Finanzdatensätze und einen umfassenden Satz an Tools und Indikatoren. Es ermöglicht Händlern, ihre Forex-Handelsstrategien einfach und effizient zu entwickeln, zu testen und umzusetzen.

Das Webinar bietet einen detaillierten Überblick über die BlueShift-Plattform, ihre Fähigkeiten und ihre Anwendung bei der Entwicklung von Devisenhandelsstrategien. Es bietet wertvolle Einblicke in den Devisenmarkt, verschiedene Modellierungsansätze und die Bedeutung eines robusten Backtestings. Für Händler, die ihre Forex-Handelsstrategien verbessern möchten, ist BlueShift möglicherweise ein wertvolles Tool in ihrem Arsenal.

  • 00:00:00 Der Referent gibt einen Überblick über Quantiacs BlueShift, eine Strategieentwicklungsplattform für systematische Handelsstrategieforschung und Backtesting. Es umfasst integrierte Finanzdatensätze und ist in der Cloud verfügbar, sodass Benutzer unterwegs und von überall aus Strategien entwickeln und analysieren können. Das Webinar konzentriert sich hauptsächlich auf FX, deckt aber auch Aktien und Futures in verschiedenen Märkten ab, und das geistige Eigentum der entwickelten Backtesting-Strategien gehört vollständig dem Benutzer. Der Redner beschreibt weiterhin den Devisenmarkt, der mit einem täglichen Volumen von etwa 5 Billionen, wovon 300 Milliarden auf Einzelhandelsvolumen entfallen, der bedeutendste dezentrale Markt ist. Zu den Faktoren, die ihn vom Aktienmarkt unterscheiden, gehören eine höhere Hebelwirkung, einfache Leerverkäufe und eine geringere Volatilität, auf die der Redner ausführlich einging.

  • 00:05:00 Der Redner erörtert, was den Devisenmarkt antreibt, und hebt makroökonomische Faktoren wie Zahlungsbilanz, Zinssätze, Inflation, Wirtschaftswachstum und Finanzpolitik hervor. Unternehmens- und Absicherungsströme sowie bedeutende Ereignisse wie plötzliche politische und geopolitische Veränderungen können ebenfalls erhebliche Auswirkungen auf den Markt haben. Der Redner stellt fest, dass es keine standardisierte oder allgemein akzeptierte Methode zur Bewertung des Devisenmarktes gibt, obwohl einige Methoden die Kaufkraftparität und den realen effektiven Wechselkurs umfassen, wobei fortgeschrittenere Methoden von großen Institutionen und dem IWF bevorzugt werden. Der Redner betont auch die Bedeutung kurzfristiger Finanzierungsmärkte, da sie die Liquidität steuern und die Rollover-Kosten über Nacht bestimmen.

  • 00:10:00 Der Redner diskutiert verschiedene Ansätze zur Entwicklung und zum Backtesting von Forex-Handelsstrategien. Ein Ansatz besteht in Wirtschaftsmodellen wie dem Währungsmodell und dem Verhaltensgleichgewichts-Wechselkursmodell, die beide ökonometrische Methoden zur Datenanalyse verwenden. Für den kurzfristigen Devisenhandel können auch andere datengesteuerte Modelle wie Zeitreihenprognosen, nichtlineare Zeitreihen und neuronale Netze verwendet werden. Anschließend stellt der Redner die BlueShift-Plattform vor, die Benutzern eine benutzerfreundliche Oberfläche zum Entwickeln und Testen ihrer Handelsstrategien bietet, indem sie Benutzern unter anderem die Eingabe von Datensätzen, Startkapital und Metadatenbeschreibungen ermöglicht, und stellt dann Tools für die vollständige Bereitstellung bereit. Backtesting und Durchführung eines schnellen Backtests. Die Plattform basiert auf der Zipline-API von Python und bietet Benutzern eine Standardstrategievorlage.

  • 00:15:00 Der Referent erläutert den Grundaufbau von Forex-Handelsstrategien und die Schlüsselfunktionen, die für das Backtesting erforderlich sind. Die erste Funktion heißt „initialize“ und richtet die Baptist-Parameter und Abrechnungsparameter ein. Die zweite Funktion ist „vor Handelsbeginn“, die einmal täglich zu Beginn der Handelssitzung aufgerufen wird, gefolgt von „Daten verwalten“, die jede Minute für den Minidatensatz aufgerufen wird. Schließlich wird die Funktion „Strategie“ über die API für eine bestimmte Zeit und ein bestimmtes Datum geplant und die Regeln werden vom Benutzer definiert. Nachdem ein schneller Baptist ausgeführt wurde, kann der Benutzer auf die Registerkarte „Baptist“ zugreifen, um verschiedene Datensätze anzuzeigen, darunter die Eigenkapitalkurve, Tränenbögen und andere Statistiken.

  • 00:20:00 Der Redner diskutiert das Tear Sheet und seine Nützlichkeit bei der Bereitstellung einer Reihe von Berichten zur Analyse von Handelsstrategien. Das Tränenblatt enthält Parameter wie das maximale Omega-Verhältnis, das Sortino-Verhältnis, die Schiefe, die Kurtosis, die Stabilität der Zeitreihen und mehr. Der Redner erklärt auch den Arbeitsablauf mit Blueshift, der mit der Initialisierung, dem Durchlaufen vor Handelsbeginn, der Datenverarbeitung und der Verwendung nützlicher API-Funktionen wie Zeitplanfunktion, Festlegen von Provisionen, Festlegen von Slippage und Festlegen der Kontowährung beginnt. Für den Devisenmarkt steht zunächst eine Standardvorlage zur Verfügung, die Parameter für Strategien und Importdaten wie BIP, Inflation, Short Rates und Long Rates aus dem Finanzmodul in Zip Line enthält.

  • 00:25:00 Der Redner erläutert, wie man eine grundlegende Vorlage für die Entwicklung von Forex-Handelsstrategien erstellt. Sie erklären, wie wichtig es ist, Parameter an einem zentralen Ort zu verwalten, das Universum zu definieren und eine geplante Funktion zur Berechnung von Rollovers zu verwenden. Sie erläutern außerdem, wie Provisionen und Slippage festgelegt werden, und definieren die Berechnung von Rollovers und technischen Indikatoren neu. Sie erwähnen die Bibliothek für technische Analysen als nützliche Ressource für den Zugriff auf integrierte technische Indikatoren. Abschließend betonen sie, dass der Backtest-Lauf jederzeit abgebrochen werden kann, und schlagen vor, diese grundlegende Vorlage zu verwenden, um mit der Entwicklung komplexerer Strategien zu beginnen.

  • 00:30:00 Der Redner diskutiert systematische Strategien im Devisenhandel und wie sie darauf abzielen, Faktoren systematisch zu finden und auszunutzen. Risikofaktoren wie Value, Momentum, Carry und defensive Strategien sind die vier Grundfaktoren im Devisenhandel. Value konzentriert sich auf die Einstufung von Währungen in Bezug auf die Bewertung, während Momentum auf dem Unterschied in Zeitreihen und Querschnittsmomentum beruht, um bei Wertpapieren mit dem höchsten Rang Long-Positionen einzugehen und bei Wertpapieren mit dem niedrigsten Rang Short-Positionen einzugehen. Carry-Strategien nutzen die Zinsdifferenz zwischen Währungspaaren aus. Schließlich gehen defensive Strategien davon aus, dass risikoarme Währungen unterbewertet sind, während risikoreiche Währungen überbewertet sind, und konzentrieren sich auf risikobereinigte Renditen.

  • 00:35:00 Der Moderator zeigt, wie man mithilfe der BlueShift-Plattform verschiedene Handelsideen entwickelt und backtestet. Insbesondere führt er eine neue Funktion namens Signal Function Carry ein, die die Kursdifferenz für jedes Währungspaar im Handelsuniversum berechnet und sie so sortiert, dass sie Long-Positionen für die oberen Zahlen, Short-Positionen für die unteren Zahlen und 0-Positionen für andere einnimmt. Derselbe Ansatz wird auf die Faktoren Momentum und Value angewendet, außerdem entsteht durch die Kombination der drei vorangegangenen Strategien eine Faktor-Basket-Strategie. Der Vortragende betont, dass der Aufwand für die Entwicklung verschiedener Strategien minimal ist, da es in erster Linie darum geht, die relevanten Signalfunktionen zu definieren und diese an den entsprechenden Stellen der Rebalance-Funktion aufzurufen.

  • 00:40:00 Der Referent erklärt, wie mit minimalem Aufwand verschiedene Forex-Handelsstrategien erstellt werden können, indem eine Vorlage verwendet wird, die den Großteil der Arbeit automatisch erledigt. Der Redner stellt außerdem ein Strategiespektrum vor, das die Art der Strategien darstellt, die je nach Handelsstil untersucht werden können, unabhängig davon, ob es sich um einen Quant-Trader, einen technischen Daytrader oder einen Fundamental-Trader handelt. Auf der horizontalen Achse zeigt das Spektrum die Entstehung der eigenen Gewinne, unabhängig davon, ob es sich um einen Trendmarkt, einen Mineralienmarkt, einen Ausbruch oder einen Carry-Markt handelt, der nahezu flach ist. Anschließend erklärt der Referent verschiedene Handelsstrategien für jeden Handelsstil, wie zum Beispiel Momentum-Strategien, Zeitreihen- und Querschnittsstrategien sowie statistische Arbitrage.

  • 00:45:00 Der Redner erörtert die Bedeutung der Kombination fundamentaler, technischer und quantitativer Analysen beim Devisenhandel. Sie erklären, dass technische und quantitative Analysen zwar in der Regel einfacher umzusetzen sind und Vertrauen in systematische Strategien schaffen, der größte Wert eines fundamentalen Handelsstils jedoch aus dem ereignisbasierten Handel resultiert. Anschließend skizziert der Redner den Entwurfszyklus für eine systematische Handelsstrategie, der die Auswahl eines Universums, die Generierung eines Signals, die Entscheidung über ein Zielportfolio und die Analyse der Leistung zur kontinuierlichen Verbesserung umfasst. Sie weisen auch darauf hin, wie wichtig es ist, Backtesting-Fehler wie etwa Look-Ahead-Bias zu vermeiden und eine robuste Plattform wie Blueshift für ein gleichmäßiges Backtesting zu nutzen.

  • 00:50:00 Der Redner erläutert die verschiedenen Schritte bei der Erstellung einer Forex-Handelsstrategie, beginnend mit der Ideenfindungsphase und dann mit der Backtesting-Phase. Er betont, wie wichtig es ist, seit zwei Jahren unkorrelierte Strategien zu entwickeln
    Strategien sind immer besser als eine. Der Redner erwähnt auch verschiedene Methoden zur Risikokapitalallokation wie LE-Kriterien, gleichgewichtete und Momentum-gewichtete Strategien. Darüber hinaus liefert er eine Beispielstrategie unter Verwendung des technischen Indikators Bollinger Bands und zeigt die beeindruckenden Statistiken der Backtest-Ergebnisse. Abschließend betont er, wie wichtig es ist, die Stabilität der Strategierendite im Laufe der Zeit zu messen, um Konsistenz sicherzustellen und eine Überanpassung zu vermeiden.

  • 00:55:00 Der Redner bespricht verschiedene Handelsstrategien, die sie entwickelt haben, darunter eine Momentum-basierte Strategie und eine korrelationsbasierte Momentum-Handelsstrategie. Sie bieten auch eine „FX Daily“-Vorlage an, die zu Beginn jedes Tages verschiedene technische Indikatoren berechnet und diese verwendet, um zu entscheiden, ob man Long- oder Short-Positionen eingeht. Der Redner betont, wie wichtig es ist, Strategien auf wissenschaftliche Weise zu testen und die Fallstricke der Optimierung zu vermeiden, wenn eine Strategie beim Backtesting gut abschneidet, im Live-Handel jedoch versagt. Das Ziel sollte darin bestehen, die zukunftsweisende Live-Leistung zu optimieren, anstatt die Leistung auf der Grundlage einer kleinen Reihe von Variationen rückwirkend zu testen.

  • 01:00:00 Der Referent diskutiert das Problem der Überoptimierung bei der Entwicklung und dem Backtesting von Handelsideen. Eine Überoptimierung kann zu einem Rückgang der Sharpe Ratio führen, was zu einem ineffektiven Live-Handel führt. Der Referent schlägt vier Optionen vor, um diesem Problem zu begegnen. Ein Vorschlag besteht darin, adaptive Strategien zu verwenden, die auf Marktveränderungen reagieren. Ein weiterer Vorschlag besteht darin, statistische Lösungen wie die Änderungspunktanalyse oder Hidden-Markov-Modelle zu verwenden, um Strategien basierend auf Marktveränderungen umzudrehen. Der dritte Vorschlag besteht darin, Untersuchungen zu stabilen Faktoren durchzuführen, um Faktoren zu identifizieren, die theoretisch und empirisch nachweislich profitable Geschäfte ermöglichen. Abschließend empfiehlt der Redner die Verwendung von Out-of-Sample-Tests, bei denen das Modell anhand von Daten getestet wird, die nicht im Optimierungsprozess verwendet wurden, um sicherzustellen, dass das Modell nicht übergeeignet ist.

  • 01:05:00 Das Video diskutiert die Bedeutung der Extraktion und Isolierung von Faktoren, die zu stabilen und konsistenten Renditen im Devisenhandel führen können. Ein solcher Faktor ist das Momentum, das eine starke empirische Grundlage hat und in jedem Markt eine gute Strategie sein kann, mit Ausnahme gelegentlicher Momentum-Crashs. Das Video spricht auch über Validierungstechniken wie die Kreuzvalidierung, die auf dem Devisenmarkt eine Herausforderung darstellen kann, da sie die Kontinuität der Zeitreihen beeinträchtigt. Stattdessen können Händler die Anzahl der generierten Signale und die Dauer jedes Handels zählen, um einen anderen Satz von Signalen zufällig auszuwählen und sie mit den Backtests zu vergleichen, um festzustellen, wie robust die Strategie ist. Darüber hinaus betont das Video, dass Automatisierung keine Black Box ist und dass Händler die zugrunde liegenden Faktoren, die die Gewinne und Verluste beeinflussen, sowie die mit jeder Strategie verbundenen Risiken verstehen sollten.

  • 01:10:00 Der Redner schlägt vor, dass es bei der Strategie nicht um Mensch gegen Maschine geht, sondern vielmehr darum, dass Mensch und Maschine zusammenarbeiten. Das menschliche Gehirn ist besser geeignet, Hypothesen zu entwickeln, während Maschinen schneller darin sind, ihnen nachzujagen. Im Hinblick auf Ratschläge zur Strategieentwicklung für Benutzer der Blue Shift-Plattform empfiehlt der Redner die Verwendung aller Strategieparameter in der Kontextumgebung, die Überprüfung des Kontohebels, die Verwendung der Zeitplanfunktion für wöchentliche oder tägliche Strategien, das Testen von Übungsergebnissen und die Überprüfung auf Überanpassung. Benutzer werden außerdem dazu ermutigt, die spezifischen Forex-Strategien auszuprobieren, die auf dem Github-Konto der Plattform verfügbar sind, und sich bei Bedarf an den Support zu wenden. Schließlich lädt Liza von FXCM Benutzer ein, sich bei Fragen zu Devisenmarktdaten an sie zu wenden.

  • 01:15:00 Der Referent beantwortet verschiedene Fragen von Benutzern, z. B. ob die Sitzung aufgezeichnet wird (ja), ob sie live handeln können (nein) und ob sie über Plattform- und Strategietests sprechen werden (bereits beantwortet). Sie geben außerdem an, dass sie derzeit über fxcm die US-amerikanischen und indischen Aktienmärkte sowie die Top-10-Währungen abdecken, planen aber, bald Krypto hinzuzufügen. Der Redner geht auch auf das Problem des Debuggens ein und erwähnt, dass es derzeit zwar keinen guten Debugger gibt, aber einfache Druckanweisungen verwendet werden können. Abschließend erwähnen sie, dass Python „Supply Not Tally“ nicht zulässt, verstehen aber nicht, was der Benutzer damit meint.

  • 01:20:00 Der Redner erörtert die Schwierigkeit, eine kleine Menge historischer Daten zu finden, die alle erwarteten Marktbewegungen auf dem Devisenmarkt genau abdecken, da diese eng mit makroökonomischen Faktoren verknüpft sind. Es ist eine Herausforderung, einen Datensatz zu definieren, der alle erwarteten Marktbedingungen abbilden kann. Obwohl der Redner Anfängern kein bestimmtes Buch zum Erlernen des Devisenhandels empfehlen kann, schlägt er vor, Forschungsartikel von Zentralbanken wie dem IWF zu befolgen, der fremdwährungsorientierte Berichte liefert, die einen guten Ausgangspunkt für Anfänger darstellen. Im Hinblick auf den Hochfrequenzhandel ist das Versenden von Tausenden von Aufträgen pro Sekunde für Einzelhändler in der Regel nicht tragbar, und der Redner schlägt nicht vor, die Daten in In-Sample- und Out-of-Sample-Tests aufzuteilen. Stattdessen werden randomisierte Tests empfohlen, um zufällige Signale zu generieren.

  • 01:25:00 Der Redner spricht über Backtesting und faktorbasiertes Investieren. Sie betonen, wie wichtig es ist, beim Backtesting die Signale und die Dauer von Trades zu analysieren, um ein besseres Verständnis der Ergebnisse zu erhalten. Sie erörtern auch die potenziellen Risiken des faktorbasierten Investierens, wie z. B. Überbelegung und die Tatsache, dass es sich bei Faktoren um Beta-Faktoren handelt, die also nicht dauerhaft funktionieren. Sie deuten jedoch darauf hin, dass faktorbasiertes Investieren auf lange Sicht für technisch nicht versierte Personen von Vorteil sein kann. Der Referent geht auch auf Fragen zum notwendigen statistischen Hintergrund für den Handel und zur Verfügbarkeit zusätzlicher Python-Bibliotheken zur Analyse ein. Sie kommen zu dem Schluss, dass Grundkenntnisse in Python zwar hilfreich sind, der Schwerpunkt jedoch auf der Entwicklung von Strategielogik und nicht auf Fachkenntnissen in der Programmiersprache liegen sollte. Aufgrund möglicher Leistungs- und Ausrichtungsprobleme stehen derzeit jedoch keine integrierten Funktionen für das Resampling in 15-Minuten-Intervallen zur Verfügung.

  • 01:30:00 Der Redner glaubt, dass es am besten ist, die Riffe und Ampullen zu erstellen, sie in einer Datenbank zu speichern und sie als fertige Ausgabe bereitzustellen, anstatt eine Mystery-Sampling-Bibliothek zu erstellen, damit Benutzer sie effizienter nutzen können. In Bezug auf Preisaktionsstrategien weist der Redner darauf hin, dass für die effektive Entwicklung mindestens Daten der Stufe zwei oder höher erforderlich sind. Darüber hinaus geben sie an, dass die derzeit verfügbaren Daten nicht ausreichen, um effiziente Preisaktionsstrategien zu entwickeln, und dass sie diese möglicherweise nicht in absehbarer Zeit bereitstellen können. Auf die Frage nach den gesetzlichen Regelungen zum Handel mit Währungspaaren außerhalb von MCX gibt der Sprecher an, dass man für Anlage- oder Absicherungszwecke eine Validierung benötige und darüber hinaus nicht viel wisse.

  • 01:35:00 Der Referent erläuterte den Prozess der Kombination technischer Indikatoren in einer Handelsstrategie und deren Backtesting mithilfe eines Demokontos, bevor sie in einer realen Marktsituation implementiert werden. Der Redner betonte, dass Händler Indikatoren wählen sollten, die sich ergänzen, statt ähnlich, und dass sie sich der Bedeutung jedes einzelnen Indikators in der Strategie bewusst sein sollten. Das Demokonto ermöglicht es Händlern, ihre Strategie in verschiedenen Szenarien zu testen und ihre Wirksamkeit zu beurteilen, bevor sie echtes Geld riskieren.
Forex Trading Strategies | Develop and Backtest Trading Ideas | Full FX Tutorial
Forex Trading Strategies | Develop and Backtest Trading Ideas | Full FX Tutorial
  • 2018.08.16
  • www.youtube.com
In this joint session by FXCM & QuantInsti®, you’ll get to learn about the FX market data, trading strategies, backtesting & optimization techniques along wi...
 

Wie EPAT Ihnen helfen kann! von Nitesh Khandelwal – 28. Juni 2018



Wie EPAT Ihnen helfen kann! von Nitesh Khandelwal – 28. Juni 2018

Nitesh Khandelwal, der Redner, stellt sich und sein Unternehmen ConTeSt als Anbieter von algorithmischer und quantitativer Handelsausbildung seit acht Jahren vor. Er teilt zunächst seinen persönlichen Hintergrund mit, angefangen von seiner Zeit als Ingenieur bis hin zu seiner Erfahrung in der Bankenbranche. Anschließend hebt er den Start des Executed Program Algorithmic Trading (EPAT) hervor, eines sechsmonatigen Programms, das Beratung, Schulung und einen reibungslosen Übergang zum Handel im Bereich des Hochfrequenzhandels (HFT) bietet. Khandelwal erwähnt seine Erfahrungen in Singapur, wo er Tests für Börsen weltweit einrichtete und das Geschäft auf globaler Ebene ausbaute.

Im Folgenden erörtert Khandelwal den algorithmischen Handel und sein Wachstum im Vergleich zum DIY-Handel (Do-it-yourself). Er stellt Statistiken vor, die den erheblichen Anstieg des algorithmischen Handels in Asien, Europa und den USA belegen, und verdeutlicht, dass Händler es mittlerweile vorziehen, ihre eigenen Handelsentscheidungen zu treffen, anstatt sich auf Broker zu verlassen. Er stellt jedoch fest, dass der algorithmische Handel zwar einen erheblichen Teil der Marktaktivität in Indien ausmacht, die Beteiligung des Einzelhandels jedoch relativ gering bleibt. Khandelwal verweist auf einen Artikel von Bloomberg, der die zunehmende Rolle von Robotern bei der Ersetzung von Finanzjobs untersucht.

Khandelwal erklärt weiter, warum Einzelhändler nicht in der Lage waren, den algorithmischen Handel einzuführen, und schlägt Möglichkeiten vor, um sicherzustellen, dass er eher zu einem Wegbereiter als zu einer Bedrohung wird. Er betont den Bedarf an statistischem und technischem Wissen, Zugang zu hochwertigen Marktdaten und effizienten Brokern sowie Anleitung durch Praktiker beim Übergang zur Automatisierung. Er erklärt, wie EPAT geschaffen wurde, um diesen Bedürfnissen gerecht zu werden und Personen, die am Algo-Handel oder der Automatisierung ihrer Strategien interessiert sind, Orientierungshilfe zu bieten.

Als nächstes erörtert Khandelwal die Funktionen von EPAT. Er erwähnt, dass das Programm umfangreiche Inhalte bietet, die von Praktikern, Fachexperten und führenden Fondsmanagern erstellt wurden. Der Lehrplan wird kontinuierlich aktualisiert, um ihn an die Marktanforderungen anzupassen, und es wird ein lebenslanger Zugriff auf aktualisierte Inhalte gewährleistet. EPAT umfasst ein engagiertes Support-Team zur Lösung von Fragen, Fakultätsberatung für Alumni und eine Karrierezelle, die bei Stellenangeboten, der Einrichtung von Trading Desks, der Suche nach relevanten Brokern und Datenanbietern und mehr hilft. Darüber hinaus erhalten EPAT-Teilnehmer Zugriff auf exklusive Funktionen, die nur ihnen zur Verfügung stehen.

Khandelwal betont die Bedeutung des Primer-Moduls in EPAT, das sicherstellt, dass alle Teilnehmer den Kurs auf dem gleichen Stand beginnen. Das Primer-Modul behandelt die Grundlagen von Excel, Python, Statistik und Finanzmärkten, die grundlegende Bausteine des algorithmischen Handels sind. Er erklärt, wie sich das Primer-Modul im Laufe der Zeit weiterentwickelt, um den größtmöglichen Nutzen aus dem Programm zu ziehen. Darüber hinaus erörtert Khandelwal die Bedeutung von Python als am weitesten verbreitete Programmiersprache im Algorithmen- und Pfandhandel, was zu seiner Aufnahme in das EPAT-Programm führte.

Anschließend befasst sich der Referent mit den verschiedenen in EPAT abgedeckten Modulen und deren Herangehensweise. Das Programm umfasst Datenanalyse und Modellierung in Python, fortgeschrittene statistische Methoden, Aktieneffekte und Futures-Strategien sowie maschinelles Lernen für den Handel. Khandelwal betont, wie wichtig es ist, die Infrastruktur und Abläufe hinter Handelsstrategien sowie Optionshandelsstrategien, Portfoliooptimierung und Betriebsrisiken im algorithmischen Handel zu verstehen. Er betont auch, wie wichtig es ist, ein Projekt unter der Anleitung eines Fachexperten abzuschließen und die EPAT-Prüfung abzulegen, um ein verifiziertes Zertifikat zu erhalten.

Khandelwal bietet einen Überblick über das EPAT-Zertifikatsprogramm, das sich über sechs Monate erstreckt und über 100 Stunden Präsenzunterricht, praktische Erfahrung und über 300 Stunden Kursarbeit umfasst. Er erwähnt die angesehenen Fakultätsmitglieder, die das Programm lehren, darunter Praktiker, Akademiker und erfolgreiche Händler. Das Programm bietet Vermittlungsmöglichkeiten und unterstützt die Teilnehmer bei der Vorbereitung von Lebensläufen und Vorstellungsgesprächen, bei der Identifizierung von Qualifikationslücken und beim Zugang zu Vermittlungspartnern wie Maklern und Investmentbanken. EPAT-Teilnehmer erhalten außerdem Zugang zu privilegierten Brokerage-Daten und API-Anbietern sowie zu fortschrittlichen Backtesting-Tools wie dem Contra Blue-Simulator.

Darüber hinaus erörtert Khandelwal die Vorteile von EPAT und den Mehrwert für die Teilnehmer. Er erwähnt den Zugang zu minutengenauen Daten für indische Märkte und S&P 500-Aktien, Weiterbildungsmöglichkeiten, Karriereunterstützung und Alumni-Treffen. Er betont, dass EPAT über ein reines Zertifikat hinausgeht und eine grundlegende quantitative Dimension für bestehende Kompetenzen bietet. Khandelwal stellt klar, dass sich EPAT darauf konzentriert, den Teilnehmern beizubringen, wie sie Handelsstrategien erstellen und validieren, und nicht vorgefertigte Arbeitsstrategien bereitzustellen. Er räumt ein, dass die Erfolgsquote von Strategien je nach Faktoren wie Infrastrukturzugang, Risikomanagement und Risikobereitschaft variiert.

Khandelwal geht auf die Frage ein, ob technische Analysten ihren Handel mithilfe von Strategien wie MACD-Crossovers, gleitenden Durchschnitten und RSI automatisieren können, nachdem sie EPAT studiert haben. Er bestätigt, dass das Programm diese Strategien abdeckt und sicherstellt, dass die Teilnehmer über das Wissen und die Tools verfügen, um ihren Handel zu automatisieren.

Anschließend geht der Referent auf die Investitionen ein, die für die Gründung eines eigenen algorithmischen Trading-Desks erforderlich sind, und erklärt, dass die Steuer für Analysten von der Häufigkeit des Desks abhängt. Er erwähnt, dass EPAT sich hauptsächlich auf den Nieder- und Mittelfrequenzhandel konzentriert, aber auch Aspekte von Hochfrequenzstrategien abdeckt. Das Programm kombiniert Python, Excel, R und MATLAB und erfordert Programmierkenntnisse und konzeptionelle Klarheit. EPAT bietet Studierenden Anleitungen zum Aufbau ihrer eigenen Trading-Desks. Obwohl EPAT keine Stellenvermittlung garantiert, bietet es Alumni, die danach suchen, Beratung an.

Khandelwal stellt klar, dass EPAT zwar keine Platzierungsgarantien bietet, jedoch Beratung anbietet, um sicherzustellen, dass Kandidaten über ein grundlegendes Verständnis des algorithmischen Handels verfügen, bevor sie sich für das Programm anmelden. Er hebt den Erfolg hervor, den viele aktiv suchende EPAT-Studenten dank des umfangreichen Netzwerks von Vermittlungspartnern des Programms bei der Jobsuche oder bei beruflichen Veränderungen haben. Er erwähnt, dass das Lernmanagementsystem von EPAT lebenslangen Zugriff auf alle Sitzungen und aktualisierten Inhalte bietet und dass der Kurs einen Zeitaufwand von etwa 300 Stunden erfordert, der über drei Monate verteilt werden kann, indem täglich eine Stunde gewidmet wird. Khandelwal betont, dass sich EPAT durch seinen Fokus auf die praktische Umsetzung von eher theoretischen Kursen unterscheidet.

Khandelwal erörtert die Gebührenstruktur für den EPAT-Kurs, die für entwickelte Märkte 4.720 USD und für Indien 189.000 INR zzgl. GST beträgt. Er erwähnt auch den Bedarf an Brokern und APIs zum Codieren von Strategien und erklärt, dass die Teilnehmer in Hongkong Karriereunterstützung erwarten können, obwohl das EPAT-Team in Indien und Singapur mehr Erfolg hatte. Er weist darauf hin, dass die EPAT-Module zwar voneinander abhängig sind und als Ganzes betrachtet werden sollten, für Personen mit begrenzten Handelskenntnissen jedoch ein bis zwei Stunden täglicher Aufwand ausreichen sollten. Abschließend erwähnt er, dass der EPAT-Kurs alle Arten von Handelsstrategieparadigmen abdeckt und den Teilnehmern und Alumni Möglichkeiten zur Fernarbeit bietet.

In den Schlussbemerkungen betont der Redner, dass das EPAT-Programm umfassend ist und vollständigen Zugriff auf alle Module bietet, was es für Personen mit Technologiehintergrund wertvoll macht, die in den Bereich des algorithmischen Handels einsteigen möchten. Sie erwähnen die verschiedenen Beschäftigungsmöglichkeiten in diesem Bereich, wobei EPAT-Teilnehmer in vielen Fällen nach Abschluss des Programms ein eigenes Unternehmen gründen oder sich einen Arbeitsplatz bei namhaften Firmen sichern. Der Redner betont, wie wichtig es ist, grundlegende Statistiken, Korrelationen und Regressionen zu verstehen, um in diesem Bereich erfolgreich zu sein. Schließlich betonen sie, dass automatisierte Handelsstrategien tatsächlich Gewinne generieren und fast 50 % des Gesamtvolumens in Indien ausmachen, was auf das erhebliche Potenzial für diejenigen hinweist, die sich für algorithmischen Handel interessieren.

  • 00:00:00 Nitesh Khandelwal stellt sich und sein Unternehmen ConTeSt vor, das seit acht Jahren algorithmische und quantitative Handelsausbildung anbietet. Er teilt auch seinen persönlichen Hintergrund mit, angefangen von seiner Zeit als Ingenieur über seine Erfahrung in der Bankenbranche bis hin zur Einführung des Executed Program Algorithmic Trading (EPAT), einem sechsmonatigen Programm, das Beratung, Schulung und einen reibungslosen Übergang zum Handel in der Branche bietet Domäne des Hochfrequenzhandels (HFT). Khandelwal geht auch kurz auf seine Erfahrungen in Singapur beim Aufbau von Tests für Börsen weltweit und beim Ausbau des Geschäfts aus einer globalen Perspektive ein.

  • 00:05:00 Nitesh Khandelwal spricht über seine Erfahrungen mit Core Density und wie sie ihrem Publikum und Teilnehmern in der quantitativen Handelsbranche mehr Mehrwert bieten. Anschließend fragt er das Publikum, ob es schon einmal gehandelt hat, und stellt Auszüge aus Regulierungsdokumenten zur Definition des algorithmischen Handels vor, beispielsweise die Definition des Securities Exchange Board of India und die MiFID II-Vorschriften in Europa. Khandelwal erklärt, dass systematischer Handel als algorithmischer Handel gilt, wenn er automatisiert ist und bestimmte Algorithmen nutzt.

  • 00:10:00 Nitesh Khandelwal diskutiert algorithmischen Handel und vergleicht ihn mit dem DIY-Handel (Do-it-yourself). Der algorithmische Handel ist in Asien erheblich gewachsen, von einigen Prozentpunkten im Jahr 2004 auf über 30 % im Jahr 2016, und macht nun 66 % der Geschäfte in den USA und 44 % in Europa aus. Der Aufstieg des algorithmischen Handels verlief proportional zur Anzahl der Händler, die nun ihre eigenen Handelsentscheidungen treffen und sich nicht auf ihre Broker verlassen. Während der algorithmische Handel jedoch 30–45 % der Marktaktivität in Indien ausmacht, wird die Beteiligung des Einzelhandels auf nur etwa 2 % geschätzt. Khandelwal erwähnt dann einen Artikel von Bloomberg, in dem hervorgehoben wird, wie Roboter zunehmend verschiedene Rollen auf dem Finanzarbeitsmarkt ersetzen.

  • 00:15:00 Nitesh Khandelwal erklärt, warum Einzelhändler den algorithmischen Handel nicht einführen konnten und was getan werden kann, um sicherzustellen, dass er eher zu einem Wegbereiter als zu einer Bedrohung wird. Er betont, dass quantitativer oder automatisierter Handel statistisches und technisches Know-how sowie Zugang zu hochwertigen Marktdaten und Märkten über effiziente Broker erfordert. Beim Übergang zur Automatisierung ist auch die Anleitung des Praktikers von entscheidender Bedeutung, insbesondere da es viele Faktoren gibt, die Händler beachten müssen. Khandelwal erörtert, wie EPAT geschaffen wurde, um diesen Bedürfnissen gerecht zu werden, und bietet Orientierung für diejenigen, die Algo verfolgen oder ihre Strategien automatisieren möchten.

  • 00:20:00 Nitesh Khandelwal diskutiert die Funktionen von EPAT. Das Programm besteht aus umfangreichen Inhalten, die von Praktikern, Fachexperten und führenden Fondsmanagern erstellt wurden. Der Lehrplan wird kontinuierlich aktualisiert, um den Marktanforderungen gerecht zu werden, und es wird lebenslanger Zugang zu aktualisierten Inhalten geboten. Das Programm stellt ein engagiertes Support-Team zur Verfügung, das Anfragen innerhalb eines definierten Zeitraums beantwortet, und Alumni erhalten von der Fakultät Anleitung zur Lösung von Fragen. EPAT verfügt über eine Karrierezelle, die bei der Suche nach Stellenangeboten, der Einrichtung von Trading Desks, der Suche nach relevanten Brokern, Datenanbietern oder Kooperationen und mehr hilft. Darüber hinaus umfasst das Programm exklusive Funktionen, die nur EPAT-Teilnehmern zur Verfügung stehen.

  • 00:25:00 Nitesh Khandelwal erläutert, wie das Primer-Modul eine entscheidende Rolle dabei spielt, sicherzustellen, dass alle Teilnehmer des EPAT-Programms vor Beginn des Kurses auf dem gleichen Stand sind. Das Primer-Modul behandelt die Grundlagen von Excel, Python, Statistik und Finanzmärkten, die die Bausteine des algorithmischen Handels bilden. Khandelwal erklärt, wie sich die Einführung mit der Zeit weiterentwickelt und interaktiver wird, um eine maximale Wertschöpfung aus dem Programm zu gewährleisten. Darüber hinaus beleuchtet Khandelwal, wie Python in den letzten Jahren zur wichtigsten Programmiersprache in der Welt des algorithmischen Handels und des Pfandhandels wurde, weshalb sie in ihrem Programm C++ und Java durch Python ersetzt haben.

  • 00:30:00 Nitesh Khandelwal bespricht die verschiedenen Module, die in EPAT abgedeckt werden, und wie sie angegangen werden. Das erste Modul umfasst die Datenanalyse und -modellierung in Python. Dabei geht es um Themen wie das Abrufen von Daten mithilfe verschiedener APIs, das Analysieren und Verwenden der Daten in Ihrer Strategie sowie das Codieren der Strategie und das Versenden von Aufträgen. Anschließend behandelt das Modul fortgeschrittenere statistische Methoden wie ARIMA, ARCH-Modelle und Gaußsche Mischungsmodelle. Anschließend wird das Modul „Aktieneffekte und Futures-Strategien“ vorgestellt, das verschiedene Ausführungsstrategien, Optimierung und Momentum/statistische Arbitrage abdeckt. Das Video endet mit einer Diskussion über maschinelles Lernen für den Handel, das immer beliebter wird und regelmäßig im EPAT-Kurs behandelt wird.

  • 00:35:00 Nitesh Khandelwal erklärt, wie wichtig es ist, die Infrastruktur und Abläufe hinter Handelsstrategien zu verstehen, indem er die Analogie eines F1-Autorennfahrers verwendet, der die Innenteile seines Autos verstehen muss. Er behandelt auch Themen wie Optionshandelsstrategien aus Sicht des Risikomanagements, Portfoliooptimierung und die Bedeutung des operationellen Risikos im algorithmischen Handel. Darüber hinaus betont er, wie wichtig es ist, ein Projekt unter der Leitung eines relevanten Fachexperten abzuschließen und die EPAT-Prüfung abzulegen, um ein verifiziertes Zertifikat für die Industrie zu erhalten.

  • 00:40:00 Nitesh Khandelwal spricht über das EPAT-Zertifikatsprogramm, das mehr als 100 Stunden Präsenzunterricht, praktische Erfahrung und über 300 Stunden Kursarbeit umfasst, die über einen Zeitraum von sechs Monaten absolviert werden müssen. Das Programm wird von einer Gruppe angesehener Fakultätsmitglieder unterrichtet, die maßgeblich zur algorithmischen Handelsbranche beigetragen haben, mit einer Mischung aus Praktikern, Akademikern und erfolgreichen Händlern in ihren Reihen. Die Fakultätsmitglieder holen führende Branchenexperten als Gastdozenten ein, und das EPAT-Zertifikatsprogramm umfasst auch Praktikumsmöglichkeiten.

  • 00:45:00 Nitesh Khandelwal erörtert die Möglichkeiten, wie das EPAT-Programm seinen Teilnehmern helfen kann, einschließlich der Vorbereitung von Lebensläufen und Vorstellungsgesprächen, der Identifizierung und Schließung von Qualifikationslücken sowie der Bereitstellung des Zugangs zu Vermittlungspartnern wie großen Maklern und Investmentbanken. EPAT-Teilnehmer haben außerdem Zugriff auf privilegierte Brokerage-Daten und API-Anbieter, von denen einige für eine begrenzte Zeit kostenlosen Handel anbieten. Das Programm bietet seinen Absolventen Anerkennung und Mehrwert durch exklusive Veranstaltungen und Sitzungen, subventionierten Zugang zu Brokern und APIs sowie fortschrittliche Backtesting-Tools wie den ContraBlue-Simulator.

  • 00:50:00 Nitesh Khandelwal erklärt einige der Vorteile von EPAT, wie z. B. Zugriff auf Minutendaten für indische Märkte und S&P 500-Aktien, kontinuierliches Lernen, Karriereunterstützung und Alumni-Treffen. Er betont, dass EPAT mehr als nur ein Zertifikat ist und dass es den bestehenden Fähigkeiten eine grundlegende quantitative Dimension hinzufügt. Khandelwal stellt außerdem klar, dass es bei EPAT nicht darum geht, Arbeitsstrategien herauszugeben, sondern darum, zu lernen, wie man diese erstellt und validiert. Er geht auf die Frage nach der Erfolgsquote von Strategien ein und erklärt, dass diese von Person zu Person unterschiedlich ist und von Faktoren wie Zugang zur Infrastruktur, Risikomanagement und Risikobereitschaft abhängt. Abschließend beantwortet Khandelwal eine weitere Frage dazu, ob technische Analysten ihren Handel mithilfe von Strategien wie MACD-Crossovers, gleitenden Durchschnitten und RSI automatisieren können, nachdem er EPAT untersucht hat, und bestätigt, dass dies im Programm abgedeckt ist.

  • 00:55:00 Nitesh Khandelwal erörtert die Investitionen, die für die Gründung eines eigenen algorithmischen Trading-Desks erforderlich sind, und wie die Steuer für Analysten von der Häufigkeit des Desks abhängt. Er erwähnt, dass EPAT sich hauptsächlich auf Handelsmethoden mit niedriger und mittlerer Frequenz konzentriert, aber auch einige Aspekte von Hochfrequenzstrategien umfasst. Der Handelskurs kombiniert Python, Excel, R und MATLAB. Das Programm erfordert Programmierkenntnisse und Klarheit auf konzeptioneller Ebene und bietet den Schülern Anleitungen zum Einrichten ihrer eigenen Schreibtische. Obwohl EPAT keine Garantie für die Vermittlung eines Arbeitsplatzes bietet, bietet es Alumni, die danach suchen, Beratung an.

  • 01:00:00 Nitesh Khandelwal stellt klar, dass EPAT zwar keine Garantien für die Platzierung bietet, aber dennoch Beratung anbietet, um sicherzustellen, dass Kandidaten eine grundlegende Vorstellung vom algorithmischen Handel haben, bevor sie sich für das Programm anmelden. EPAT konnte vielen seiner aktiv suchenden Studenten erfolgreich dabei helfen, einen Job zu finden oder einen Jobwechsel zu vollziehen, da EPAT über ein umfangreiches Netzwerk von fast hundert Praktikumspartnern verfügt, die das Wissen und die praktischen Umsetzungsfähigkeiten schätzen, die in diesem nischen- und praxisorientierten Kurs vermittelt werden . Das Lernmanagementsystem von EPAT bietet lebenslangen Zugriff auf alle Sitzungen und aktualisierten Inhalte. Der Kurs erfordert einen Zeitaufwand von etwa 300 Stunden, der durch tägliches Einbringen einer Stunde auf drei Monate verteilt werden kann. Khandelwal betont, dass sich EPAT durch seinen Fokus auf die praktische Umsetzung des algorithmischen Handels von anderen Kursen unterscheidet, die eher theoretisch ausgerichtet sind.

  • 01:05:00 Nitesh Khandelwal bespricht die Gebührenstruktur für den EPAT-Kurs, der für entwickelte Märkte 4.720 USD und für Indien 189.000 INR plus GST beträgt. Er erwähnt auch den Bedarf an Brokern und APIs zum Codieren von Strategien und erklärt, dass die Teilnehmer in Hongkong Karriereunterstützung erwarten können, das EPAT-Team jedoch in Indien und Singapur erfolgreicher war. Khandelwal betont, dass die EPAT-Module voneinander abhängig sind und als Ganzes betrachtet werden sollten, gibt jedoch an, dass ein bis zwei Stunden täglicher Aufwand für diejenigen mit sehr geringen Handelskenntnissen ausreichend sein sollten. Der EPAT-Kurs deckt alle Arten von Handelsstrategieparadigmen ab und bietet Teilnehmern und Alumni Möglichkeiten zur Fernarbeit.

  • 01:10:00 Der Redner spricht darüber, wie umfassend das EPAT-Programm ist und vollständigen Zugriff auf alle Module bietet, was es für Teilnehmer mit Technologiehintergrund, die in den Bereich des algorithmischen Handels einsteigen möchten, wertvoll macht. Sie heben die unterschiedlichen Beschäftigungsmöglichkeiten hervor, die in diesem Bereich zur Verfügung stehen, wobei es zahlreiche Fälle gibt, in denen Teilnehmer nach Abschluss des Programms ein eigenes Unternehmen gründen oder eine Stelle bei großen Firmen annehmen. Darüber hinaus betont der Redner, wie wichtig es ist, grundlegende Statistiken zu kennen, Korrelation und Regression zu verstehen, um in diesem Bereich erfolgreich zu sein. Schließlich weisen sie darauf hin, dass automatische Handelsstrategien tatsächlich Geld verdienen und fast 50 % des Gesamtvolumens in Indien ausmachen, was darauf hindeutet, dass dieser Bereich für diejenigen, die sich dafür interessieren, ein erhebliches Potenzial hat.

  • 01:15:00 Nitesh Khandelwal spricht über das EPAT-Programm, ein praxisorientiertes Programm, das von Berufstätigen auf den Märkten auf der ganzen Welt unterrichtet wird. Er empfiehlt unerfahrenen Händlern, mehr über die Märkte zu lesen und zu erfahren, und schlägt vor, die Blogs und Webinare des EPAT-Programms zu lesen. Er erwähnt auch, dass MCX Algo-Handel ermöglicht, und erörtert die Infrastrukturanforderungen, die für die Einrichtung eines eigenen Handelsschalters erforderlich sind, da diese von der Handelshäufigkeit und den regulatorischen Anforderungen abhängen. Darüber hinaus erwähnt Khandelwal, dass EPAT Absolventen in Teilen Nigerias und Afrikas hat, und empfiehlt denjenigen, die sich für das Programm interessieren, sich für weitere Informationen an das Geschäftsteam zu wenden.

  • 01:20:00 Der Referent erklärt, dass sie für ihr Online-Programm ein Lernmanagementsystem anbieten, bei dem eingeschriebene Studierende auf alle Vorlesungen, Aufzeichnungen, Tests, Tests und Aufgaben zugreifen können. Das Programm findet vollständig online statt, es besteht also keine Anwesenheitspflicht im Präsenzunterricht. Das Gehalt für Studienanfänger hängt von ihrem Hintergrund, ihren Fähigkeiten und ihrem akademischen Werdegang ab, in Indien kann es jedoch zwischen 500.000 und 2 Millionen Rupien pro Jahr liegen. Das Programm deckt Backtests auf verschiedenen Plattformen ab und unterstützt die vollständige Automatisierung. Der Kurs wird von einem Lehrer geleitet und findet wöchentlich statt. Obwohl die Vorlesung nicht im Selbststudium stattfindet, haben die Studierenden Zugriff auf die Aufzeichnungen und können diese zu einem späteren Zeitpunkt noch einmal anschauen, wenn sie eine Vorlesung verpassen. Der Redner weist auch darauf hin, dass es möglicherweise Möglichkeiten für Remote-Jobs gibt.

  • 01:25:00 Nitesh Khandelwal beantwortet ein paar letzte Fragen zum EPAT-Programm. Bei einer Frage geht es um die Anzahl der in Indien ansässigen Trainer, und Khandelwal schätzt, dass etwa 50 % aus Indien stammen, der Rest aus verschiedenen Ländern auf der ganzen Welt. Bei einer anderen Frage geht es darum, ob es im Vereinigten Königreich ansässige Makler oder Institutionen gibt, die mit dem Programm zusammenarbeiten, und Khandelwal bestätigt, dass es im Vereinigten Königreich ansässige Makler gibt. Er ermutigt die Zuschauer, sich an das EPAT-Team zu wenden, wenn sie weitere Fragen haben oder Hilfe benötigen. Insgesamt betont Khandelwal den Wert des EPAT-Programms, das Einzelpersonen dabei unterstützt, ihre Karriere- und Lernziele zu erreichen.
How EPAT Can Help You! by Nitesh Khandelwal - June 28, 2018
How EPAT Can Help You! by Nitesh Khandelwal - June 28, 2018
  • 2018.06.29
  • www.youtube.com
If you've been looking to build a career into the quantitative and algorithmic trading domain, there is a high probability that you would have heard about th...
 

AMA zum algorithmischen Handel | Von Nitesh Khandelwal



AMA zum algorithmischen Handel | Von Nitesh Khandelwal

In dieser „Fragen Sie mich alles“-Sitzung zum algorithmischen Handel begrüßt Nitesh Khandelwal, Mitbegründer des Algo-Handelsunternehmens Eragy, das Publikum und teilt sein Fachwissen zu diesem Thema. Ziel der Sitzung ist es, verschiedene Aspekte des algorithmischen Handels abzudecken, darunter Plattformen und Broker, Handelsstrategien, Marktdaten, Beschäftigungsmöglichkeiten, die Einrichtung eines Algo-Trading-Desks, Vorschriften, die Zukunft des Algo-Handels sowie Lern- und Bildungsmöglichkeiten. Khandelwal erwähnt, dass die Sitzung ein Gleichgewicht zwischen vorgefertigten Fragen und Live-Fragen herstellen wird und dass sie auch individuelle Folgesitzungen für unbeantwortete Fragen anbieten.

Der Moderator erklärt zunächst verschiedene Handelsstrategien wie Niederfrequenz-, Mittelfrequenz- und Hochfrequenzhandel. Diese Strategien werden basierend auf der Latenz der Handelsinfrastruktur und der Auftragsbearbeitungszeit definiert. Der Schwerpunkt liegt auf der Betonung, dass die Latenz der Handelsstrategie wichtiger ist als die Anzahl der pro Sekunde ausgeführten Trades. Anschließend geht es im Abschnitt darum, wo man Markt- und Wirtschaftsdaten erhält, und geht auf verschiedene Datenanbieter wie Yahoo Finance, Google Finance, Quandl, Alpha Vantage und FXCM ein. Diese Anbieter bieten entweder herunterladbare Daten oder Daten an, die auf ihren Plattformen verwendet werden können.

Anschließend erörtert der Redner die Datenquellen für den algorithmischen Handel, einschließlich manueller Downloads, API-Abruf und kostenpflichtiger Anbieter wie Quandl, Global Data Feed, Trading Economics, Thomson Reuters und Active Financial. Sie gehen auch auf die Frage ein, ob Hochfrequenzhändler (HFT) im Allgemeinen manuelle Daytrader übertreffen, und erklären, dass dies von der Art der analysierten Daytrader abhängt. Wenn Händler Arbitragemöglichkeiten oder Marktineffizienzen ausnutzen, sind Maschinen möglicherweise schneller als manuelle Händler. Wenn Händler jedoch nach gründlicher Recherche Daten analysieren und manuelle Aufträge ausführen, sind Maschinen nicht unbedingt effizienter. Der Redner verwirft die Idee, dass ein übermäßig algo-gehandelter Markt kontraproduktiv sei, und stellt klar, dass die Automatisierung nicht immer einen Hochfrequenzhandel erfordert.

Das Konzept der Verwendung von Algorithmen im Handel, bekannt als „Elbows“, wird erklärt. Es ermöglicht einen effizienteren Handel und kann mithilfe mathematischer Formeln automatisiert und quantifiziert werden. Allerdings kann es schwierig sein, Marktineffizienzen zu finden, und der Wettbewerb im Hochfrequenzhandel und in der Technologieinfrastruktur wird immer teurer. Der Referent befasst sich auch mit der Frage, wie mit mehreren Strategien in einem Brokerage-Konto für ein FBI umgegangen werden soll.

Die Voraussetzungen für den algorithmischen Handel werden besprochen, einschließlich Kenntnisse in Statistik und Ökonometrie, Finanzinformatik und Quant Trading. Der Moderator erwähnt, dass diejenigen, die bei Null anfangen, diese Säulen durch frei verfügbare Ressourcen auf der Quant-Website kennenlernen können. Händler, die bereits mit Handelsstrategien vertraut sind und eine Automatisierung anstreben, können zunächst eine Broker-API verwenden und schließlich ihre eigene Plattform aufbauen. Der Redner erklärt auch die verschiedenen Datenanbieter für Tick-Daten und erwähnt, dass die meisten Anbieter zwar Snapshot-Daten bereitstellen, High-End-Anbieter jedoch echte Tick-Daten zu höheren Kosten bereitstellen können. Abschließend sei darauf hingewiesen, dass für Händler, die mit ihren aktuellen Handelsstrategien bereits erfolgreich sind, das Erlernen des Algo-Handels möglicherweise nicht erforderlich ist, es sei denn, sie möchten sich weiter verbessern und experimentieren.

Die Vorteile der Automatisierung von Handelsstrategien werden diskutiert, einschließlich der Kontrolle von Emotionen, der Skalierbarkeit und der Bandbreite für die Arbeit an Strategien, während Maschinen die Ausführung übernehmen. Der Redner betont, wie wichtig es ist, einen Programmierhintergrund für den Erfolg im algorithmischen Handel zu haben, und betont, dass Python von den meisten Unternehmen weltweit weit verbreitet ist. Der Redner weist jedoch darauf hin, dass der Hochfrequenzhandel nicht für Einzelhändler geeignet ist und einige Strategien möglicherweise eine angemessene Kapitalmenge erfordern, bevor sie Erfolg haben. Dennoch kann man auch mit Grundkenntnissen in Python in den algorithmischen Handel einsteigen.

Es werden die Fähigkeiten besprochen, die erforderlich sind, um ein algorithmischer Händler zu werden, einschließlich Kenntnisse in Statistik, Ökonometrie und Handelsstrategien. Der Referent erläutert außerdem die verschiedenen Karrieremöglichkeiten im algorithmischen Handel, die von Back-Office-Rollen bis hin zu Front-Office-Trading-Rollen reichen. Sie erwähnen, dass Personen mit Software- und Datenwissenschaftshintergrund den Einstieg in den Algo-Handel wagen können, da ihr Hintergrund bereits eine solide Grundlage bietet und der Einstieg in die Finanzmarktseite relativ einfacher sein dürfte. Der Redner erwähnt auch einen Blog über einen 40-jährigen Absolventen von QuantInsti, der ohne vorherige Handelserfahrung erfolgreich in den algorithmischen Handel eingestiegen ist. QuantInsti wird als eine Institution hervorgehoben, die eine spezielle Karrierezelle bietet, um Einzelpersonen dabei zu helfen, die notwendigen Fähigkeiten zu erwerben und mit den richtigen Leuten in Kontakt zu treten, um in ihrer Karriere voranzukommen.

Anschließend geht der Redner auf algorithmische Handelssprachen und ihre Bedeutung in Forschung und Analyse ein. Während Hochfrequenzhandelsunternehmen C++ wegen geringerer Latenz, für Backtesting und Strategiebewertung bevorzugen, sind R und Python die beliebtere Wahl. Als Antwort auf die Frage eines Benutzers zur Verbesserung der Trefferquote und zur Bewältigung aufeinanderfolgender Verluste schlägt der Redner vor, die Parameter beim Backtesting zu optimieren und In-Sample- und Out-of-Sample-Handel zur Überprüfung auf Drawdowns zu nutzen. Auch die Marktsättigung wird angesprochen, wobei der Redner erklärt, dass die HFT-Quote als Indikator für den Wettbewerb dient und dass einfache Arbitrage-Strategien in stark gesättigten Märkten möglicherweise nicht erfolgreich sind.

Verschiedene algorithmische Handelsstrategien werden weiter untersucht, was die Notwendigkeit einer starken Technologieinfrastruktur für einfache Arbitrage- und Market-Making-Strategien hervorhebt. Der Redner geht auf verschiedene Fragen des Publikums ein, darunter die Bedeutung der Gesamtbitmenge, die Auswirkungen von HFTs auf traditionelle Händler in Indien und den Zeithorizont, der zur Analyse von Daten für den Algo-Handel verwendet wird. Sie erklären, dass der Zeithorizont von der Handelsfrequenz abhängt. Darüber hinaus ermutigt der Redner Personen mit Software- und Datenwissenschaftshintergrund, sich in den Algo-Handel zu wagen, und erklärt, dass ihr Hintergrund bereits eine solide Grundlage biete und der Einstieg in die Finanzmarktbranche relativ einfacher sein dürfte.

Nitesh Khandelwal beantwortet mehrere Fragen im Zusammenhang mit der Möglichkeit, mit ihrem Unternehmen eine Handelsplattform einzurichten, der rechtlichen Genehmigung für die Automatisierung, den Kosten und den indischen Marktvorschriften. Sie stellen klar, dass ihr Unternehmen Teilnehmern und Alumni Beratung und lebenslange Unterstützung bietet, jedoch keine Beratungsdienstleistungen anbietet. Eine Automatisierung ist möglich und die Kosten hängen von der erforderlichen Infrastruktur ab. In Ländern wie Indien muss jede Handelsstrategie vor der Automatisierung genehmigt werden, und nur der Broker kann dies im Namen des Händlers tun. Die Verwendung stochastischer und fundamentaler Indikatoren in Strategien wird diskutiert und erwähnt, dass sie manuell oder durch Software verwendet werden können. Der Redner erwähnt auch die Verfügbarkeit von Tools zum Auslesen maschinenlesbarer Nachrichten und Wirtschaftsdaten zur Erstellung von Algorithmen.

Die Sitzung befasst sich mit der Frage, ob Menschen in Indien Hochfrequenzhandel (HFT) für nicht-indische Märkte betreiben können und ob HFT Einzelhändler von den Märkten fernhält. In Bezug auf nicht-indische Märkte wird erklärt, dass der Versand von Geldern für an ausländischen Börsen notierte Handelsmargenprodukte im Rahmen des LRS-Systems nicht zulässig ist, es sei denn, man hat eine RBA-Genehmigung. Wenn jedoch ein globales Unternehmen einen Teil seines Handels an ein indisches Unternehmen auslagert, könnte dies möglich sein. Bezüglich der Auswirkungen von HFT auf Einzelhändler wird erwähnt, dass die Präsenz von HFTs die Liquidität des Marktes erhöht und die Spreads verengt, was Einzelhändlern zugute kommt. Allerdings sollten illegale Aktivitäten wie Front Running nicht erlaubt sein, unabhängig von der Domain.

Der Referent betont, dass der Hochfrequenzhandel (HFT) einzelnen Einzelhändlern nicht schadet, da diese typischerweise webbasierte Browser verwenden, die von Natur aus eine eingebaute Latenz von einigen hundert Millisekunden haben. Selbst wenn HFT-Firmen illegale Methoden anwenden, um einen schnelleren Zugang zu erhalten, hätte dies keine Auswirkungen auf den Einzelhändler, sondern würde anderen HFT-Firmen schaden, die sich an die Regeln halten. Der Redner betont, dass Einzelhändler im Allgemeinen von dem durch HFT geschaffenen effizienten Markt profitieren, da dadurch Arbitragemöglichkeiten ausgeschlossen werden. Der Redner geht auch auf eine Frage zum Erlernen des algorithmischen Handels auf Englisch ein und erörtert einige wichtige Komponenten für einen dauerhaft profitablen Handel.

Das Video unterstreicht die Bedeutung sich ständig weiterentwickelnder Handelsstrategien in der Branche des algorithmischen Handels, da sich die Märkte ständig verändern. Während nicht viele Broker in Indien den algorithmischen Handel unterstützen, bieten einige programmatische Handelsoptionen wie Semi-Algo oder El-Go an. Der Redner geht auch auf den Arbeitsmarkt für Quant-Analysten ein und betont, dass dieser nicht nur auf Doktoranden beschränkt ist, sondern vielmehr vom Wissen und den Fähigkeiten des Einzelnen zur Problemlösung abhängt. Auch die Hardware- und Infrastrukturanforderungen für den algorithmischen Handel werden berücksichtigt. Für den Niederfrequenzhandel reichen ein ordentlicher Laptop oder Cloud-Computing-Optionen von Unternehmen wie Amazon und Google aus. Für den Mittelfrequenzhandel sind eine algorithmische Handelsplattform und ein spezialisierter Server erforderlich, was einige tausend Dollar kosten kann. Für den Hochfrequenzhandel ist ein spezialisierter Server im Wert von 10.000 bis 25.000 US-Dollar erforderlich.

Der Referent erläutert die vor dem Go-Live erforderlichen Genehmigungen, die von der Börse und dem Standort abhängen. Sie stellen klar, dass das EPAT-Programm ein umfassendes Themenspektrum abdeckt und sich auf praktisches Lernen konzentriert, obwohl es keine Garantie für profitable Strategien ist. Die verschiedenen Arten von Algorithmen, die im automatisierten Handel verwendet werden, werden besprochen, einschließlich Algorithmen mit niedriger, mittlerer und hoher Frequenz. Hochfrequenzalgorithmen werden für Arbitrage-, Market-Making- und Richtungsstrategien verwendet, die eine schnellere Berechnung erfordern. Algorithmen mit niedriger und mittlerer Frequenz können verschiedene Strategien automatisieren, einschließlich grundlegender Investitionen. Beliebte Strategien wie Momentum, statistische Arbitrage und optionbasierte Strategien werden ebenfalls erwähnt, wobei Algorithmen Vorteile wie Skalierbarkeit, emotionale Kontrolle und eine bessere Analyse von Big Data bieten.

Für Einzelhändler, die sich für den algorithmischen Handel interessieren, aber keine Programmiererfahrung haben, empfiehlt der Referent, zunächst mit dem Erlernen grundlegender Statistiken und Handelsstrategien zu beginnen. Sie bieten Ressourcen für selbstbestimmtes Lernen. Nitesh Khandelwal betont die Idee, eine eigene Handelsstrategie zu entwickeln, anstatt sich auf bereits bestehende zu verlassen. Sie gehen auch auf die Rolle des Algo-Handels auf dem Kryptowährungsmarkt ein und weisen darauf hin, dass einige Teilnehmer zwar Automatisierungstools für den Handel mit Kryptowährungen verwenden, der Algo-Handel jedoch nicht der einzige Grund für den Kryptowährungsboom ist. Die potenziellen Auswirkungen von künstlicher Intelligenz und maschinellem Lernen auf den Algo-Handel werden erwähnt, wobei der Redner hervorhebt, dass sie aufgrund der Erschwinglichkeit der für das Training von Algorithmen erforderlichen Rechenleistung neben großen Institutionen auch Einzel- und Einzelhändlern mehr Möglichkeiten bieten werden.

Der Redner geht außerdem auf den erwarteten Anstieg der Einzelhandelsbeteiligung am algorithmischen Handel aufgrund der Veränderungen und Automatisierung im Finanzsektor ein. Sie beantworten Fragen des Publikums zu Ressourcen für Bilanzdaten, zum Übergang von einem Nicht-Finanzunternehmen zu einem algorithmischen Händler sowie zu den idealen Zahlen für CAGR (Compound Annual Growth Rate) und Gewinnquote im algorithmischen Handel. Der Redner warnt davor, sich ausschließlich auf prozentuale Renditen zu konzentrieren und betont stattdessen Skalierbarkeit, starke Infrastruktur und Technologie als wichtige Überlegungen.

Die Sitzung endet damit, dass der Redner die Bedeutung der Berücksichtigung von Risiken bei der Erörterung von Renditen und den für den Start eines Algo-Handelsgeschäfts erforderlichen Investitionen erörtert, die je nach Häufigkeit und Art der benötigten Infrastruktur zwischen einigen tausend Dollar und Hunderttausenden Dollar liegen können. Der Redner erwähnt, dass Automatisierung und Risikomanagement Schlüsselfaktoren sind, die bei der Gründung eines Algo-Handelsunternehmens berücksichtigt werden müssen. Sie bieten auch Einblicke in die Verfügbarkeit von Echtzeitdaten in Indien und den Genehmigungsprozess für Handelsstrategien und betonen, dass Börsen dem Risikomanagement Vorrang vor den Besonderheiten der Strategie einräumen. Abschließend erkennt der Redner den Mangel an guten Websites für Backtests und das Schreiben von Lefty-Strategien (gehebelte und Intraday-Strategien) auf indischen Märkten an.

Im letzten Abschnitt erörtert der Redner die Entwicklung von Tools für verschiedene Märkte bei Horn Insights mit dem Ziel, den Teilnehmern und Benutzern eine bessere Präsenz und Vorteile zu bieten. Sie gehen auf eine Frage zur Gehaltsspanne für Quants in Indien ein und weisen darauf hin, dass diese von Faktoren wie Erfahrung und Hintergrund abhängt. Der Redner betont, dass Colocation keine Manipulation sei und vergleicht es mit dem Bezahlen von Flugreisen, um ein Ziel schneller zu erreichen als mit der Bahn. Sie erwähnen auch, dass die meisten auf technischen Indikatoren basierenden Strategien mit Python entwickelt werden können, und betonen, dass fortgeschrittene Programme im Bereich des algorithmischen Handels zwar nicht allgemein verfügbar sind, das ANNIE-Pat-Programm jedoch eine lebenslange Anleitung bietet.

In den letzten Momenten des Videos ermutigt der Sprecher Einzelpersonen, algorithmischen Handel zu betreiben, und erwähnt, dass sich der Markt im Laufe der Jahre erheblich weiterentwickelt hat und für Einzelhändler zugänglicher geworden ist. Sie laden die Zuschauer ein, die bei QuantInsti und Horn Insights verfügbaren Ressourcen zu erkunden, um ihr Wissen und Verständnis des algorithmischen Handels zu erweitern.

  • 00:00:00 Nitesh Khandelwal, Mitbegründer des Algo-Handelsunternehmens Eragy, begrüßt das Publikum zu einer „Ask me everything“-Sitzung zum algorithmischen Handel. Khandelwal verfügt über Erfahrung in der Beratung großer Institutionen beim Aufbau eigener Algo-Trading-Desks und wird sein Fachwissen zu diesem Thema weitergeben. In der Sitzung werden häufig gestellte Fragen zu Themen wie Plattformen und Broker, Handelsstrategien, Marktdaten, Beschäftigungsmöglichkeiten, Einrichtung eines Algo-Trading-Desks, Vorschriften und Geschäftsumfeld, die Zukunft des Algo-Handels sowie Lern- und Bildungsmöglichkeiten behandelt. Ziel der Sitzung ist es, ein Gleichgewicht zwischen vorgefertigten Fragen und Live-Fragen herzustellen. Darüber hinaus werden individuelle Folgesitzungen für Fragen angeboten, die während der Sitzung nicht beantwortet werden können.

  • 00:05:00 Der Moderator erklärt verschiedene Handelsstrategien wie Niederfrequenz-, Mittelfrequenz- und Hochfrequenzhandel und wie diese Strategien basierend auf der Latenz der Handelsinfrastruktur und der Auftragsbearbeitungszeit definiert werden. Der Moderator betont, dass die Latenz der Handelsstrategie wichtiger ist als die Anzahl der pro Sekunde ausgeführten Trades. Anschließend wird im Abschnitt erläutert, wo Sie Markt- und Wirtschaftsdaten von verschiedenen Datenanbietern wie Yahoo Finance, Google Finance und Quanti ex parte del alpha Vantage fxcm erhalten. Der Moderator weist darauf hin, dass diese Anbieter entweder herunterladbare Daten oder Daten anbieten, die auf ihrer Plattform verwendet werden können.

  • 00:10:00 Der Referent diskutiert die Datenquellen, die für den algorithmischen Handel genutzt werden können. Daten können durch manuelle Downloads, API-Abruf oder kostenpflichtige Anbieter wie Qantas Global Data Feed Trading Economics, Thomson Reuters und Active Financial abgerufen werden. Die Frage, ob HFT- oder Elbow-Trader im Allgemeinen manuelle Daytrader schlagen, hängt von der Art der analysierten Daytrader ab. Wenn Händler Arbitragemöglichkeiten oder Marktineffizienzen ausnutzen, sind Maschinen möglicherweise schneller als manuelle Händler. Wenn Händler jedoch nach gründlicher Recherche Daten analysieren und manuelle Aufträge ausführen, sind Maschinen nicht unbedingt effizienter. Die Vorstellung, dass ein übermäßig algo-gehandelter Markt kontraproduktiv sei, ist unbegründet, da die Automatisierung nicht immer einen Hochfrequenzhandel erfordert.

  • 00:15:00 Der Referent erklärt das Konzept der Verwendung von Ellbogen im Handel, das einen effizienteren Handel ermöglicht und mithilfe mathematischer Formeln automatisiert und quantifiziert werden kann. Allerdings kann es eine Herausforderung sein, Ineffizienzen auf dem Markt zu finden, und der Wettbewerb im Hochfrequenzhandel und in der Technologieinfrastruktur wird immer teurer. Technische Indikatoren und Muster können quantifiziert und automatisiert werden, aber Algorithmen können viel komplexer werden, wenn Subjektivität im Spiel ist, wie zum Beispiel bei Elliott Wave. Der Redner geht auch auf die Frage ein, wie man mit mehreren Strategien in einem Brokerage-Konto für ein FBI umgeht.

  • 00:20:00 Der Redner erörtert die Voraussetzungen für den algorithmischen Handel, der typischerweise drei Hauptpfeiler umfasst: Statistik und Ökonometrie, Finanzinformatik und quantitativer Handel. Wer bei Null anfängt, kann sich über verschiedene Ressourcen über diese Säulen informieren, beispielsweise über die kostenlos auf der Quant-Website verfügbaren. Händler, die bereits mit Handelsstrategien vertraut sind und eine Automatisierung anstreben, können zunächst eine Broker-API verwenden und schließlich ihre eigene Plattform aufbauen. Was die Datenanbieter für Tick-Daten betrifft, stellen die meisten Anbieter stattdessen Snapshot-Daten bereit, obwohl High-End-Anbieter zu höheren Kosten echte Tick-Daten bereitstellen können. Schließlich besteht für Händler, die mit ihren aktuellen Handelsstrategien bereits erfolgreich sind, möglicherweise keine Notwendigkeit, den Algo-Handel zu erlernen, es sei denn, sie möchten sich weiter verbessern und experimentieren.

  • 00:25:00 Der Redner erörtert die Vorteile der Automatisierung von Handelsstrategien, z. B. die Kontrolle von Emotionen und die Skalierbarkeit und Bandbreite für die Arbeit an Strategien, während die Maschinen die Ausführung übernehmen. Der Redner weist darauf hin, dass ein Programmierhintergrund für den Erfolg im algorithmischen Handel unerlässlich ist, und erwähnt, dass die meisten Firmen auf der ganzen Welt Python verwenden. Der Redner stellt jedoch fest, dass HFT nicht für Einzelhändler geeignet ist und einige Strategien möglicherweise eine angemessene Kapitalmenge erfordern, bevor sie Erfolg haben. Dennoch kann man auch mit Grundkenntnissen in Python in den algorithmischen Handel einsteigen.

  • 00:30:00 Der Redner bespricht die Fähigkeiten, die erforderlich sind, um ein algorithmischer Händler zu werden, einschließlich Kenntnisse in Statistik, Ökonometrie und Handelsstrategien. Der Referent erläutert außerdem die verschiedenen Karrieremöglichkeiten im algorithmischen Handel, die von Back-Office-Rollen bis hin zu Front-Office-Trading-Rollen reichen. Für diejenigen, die Karrieremöglichkeiten mit 10 bis 20 Jahren Branchenexpertise, aber keiner Handelserfahrung suchen, teilt der Redner einen Blog über einen 40-jährigen Absolventen von QuantInsti, der erfolgreich in den algorithmischen Handel einsteigen konnte. Darüber hinaus verfügt QuantInsti über eine spezielle Karrierezelle, die Einzelpersonen dabei helfen kann, die erforderlichen Fähigkeiten zu erwerben und mit den richtigen Leuten in Kontakt zu treten, um ihre Karriere voranzutreiben.

  • 00:35:00 Der Redner spricht über algorithmische Handelssprachen und die Bedeutung der Programmierung in Forschung und Analyse. Er erklärt, dass Hochfrequenzhandelsunternehmen aufgrund der geringeren Latenz C++ bevorzugen, für Backtesting und Strategiebewertung jedoch R und Python beliebter sind. Als Antwort auf die Frage eines Benutzers zur Verbesserung der Trefferquote und der aufeinanderfolgenden Verluste schlägt er vor, die Parameter beim Backtesting zu optimieren und den In-Sample- und Out-of-Sample-Handel zur Überprüfung auf Drawdowns zu verwenden. Bei der Erörterung der Marktsättigung stellt er fest, dass die HFT-Quote ein Indikator für den Wettbewerb ist und dass einfache Arbitrage-Strategien in Märkten mit hohen HFT-Quoten möglicherweise nicht erfolgreich sind.

  • 00:40:00 Der Redner diskutiert verschiedene algorithmische Handelsstrategien und betont die Notwendigkeit einer starken Technologieinfrastruktur für einfache Arbitrage- und Market-Making-Strategien. Der Redner beantwortet auch verschiedene Fragen des Publikums, darunter die Bedeutung der Gesamtbitmenge, die Auswirkungen von HFTs auf traditionelle Händler in Indien und den Zeithorizont, der zur Datenverarbeitung für den Algo-Handel verwendet wird, der seiner Meinung nach von der Handelshäufigkeit abhängt. Darüber hinaus ermutigt der Redner Personen mit Software- und Datenwissenschaftshintergrund, sich in den Algo-Handel zu wagen, und erklärt, dass ihr Hintergrund bereits eine solide Grundlage biete und dass der Einstieg in den Finanzmarkt relativ einfacher sein dürfte.

  • 00:45:00 Nitesh beantwortet mehrere Fragen im Zusammenhang mit der Möglichkeit, mit ihrem Unternehmen eine Handelsplattform einzurichten, der rechtlichen Genehmigung für die Automatisierung, den Kosten und den indischen Marktvorschriften. Sie bieten ihren Teilnehmern und Alumni Orientierung und lebenslange Unterstützung, bieten jedoch keine Beratungsleistungen an. Eine Automatisierung ist möglich und die Kosten hängen von der erforderlichen Infrastruktur ab. In Ländern wie Indien muss jede Handelsstrategie vor der Automatisierung genehmigt werden, und nur der Broker kann dies im Namen des Händlers tun. Stochastische Indikatoren können in jeder Strategie verwendet werden, und fundamentale Indikatoren können sowohl manuell als auch über Software eingegeben werden. Es gibt Tools, die das Lesen maschinenlesbarer Nachrichten und Wirtschaftsdaten für die Erstellung von Algorithmen erleichtern.

  • 00:50:00 Es wird diskutiert, ob Menschen in Indien Hochfrequenzhandel (HFT) für nicht-indische Märkte betreiben können und ob HFT Einzelhändler von den Märkten vertreibt. Für nicht-indische Märkte wird erwähnt, dass es im Rahmen des LRS-Systems nicht gestattet ist, Geld für an ausländischen Börsen notierte Handelsmargenprodukte zu senden, es sei denn, man hat eine RBA-Genehmigung. Wenn jedoch ein globales Unternehmen einen Teil seines Handels an ein indisches Unternehmen auslagert, könnte dies möglich sein. Auf die Frage, ob HFT Einzelhändler vom Markt verdrängt, wird erwähnt, dass die Präsenz von HFTs die Liquidität des Marktes erhöht und die Spreads verengt, was Einzelhändlern zugute kommt. Allerdings sollten illegale Aktivitäten wie Front Running nicht erlaubt sein, unabhängig von der Domain.

  • 00:55:00 Der Redner erläutert, wie der Hochfrequenzhandel (HFT) den Einzelhändlern auf individueller Ebene keinen Schaden zufügt, da sie webbasierte Browser verwenden, die eine integrierte Latenz von einigen hundert Millisekunden haben. Selbst wenn HFT-Firmen illegale Methoden anwenden, um einen schnelleren Zugang zu erhalten, hätte dies keine Auswirkungen auf den Einzelhändler, sondern würde anderen HFT-Firmen schaden, die sich an die Regeln halten. Der Redner weist darauf hin, dass Einzelhändler in der Regel von dem effizienten Markt profitieren, den HFT schafft, da dadurch Arbitragemöglichkeiten ausgeschlossen werden. Der Redner geht auch auf eine Frage zum Erlernen des algorithmischen Handels auf Englisch ein und spricht über einige wichtige Komponenten für einen dauerhaft profitablen Handel.

  • 01:00:00 Das Video diskutiert die Bedeutung der kontinuierlichen Weiterentwicklung der eigenen Handelsstrategie in der Branche des algorithmischen Handels, da sich die Märkte ständig ändern. Während nicht viele Broker in Indien den algorithmischen Handel unterstützen, bieten einige doch programmatischen Handel an, der die Verwendung bestimmter Programme wie Semi-Algo oder El-Go ermöglicht. Der Arbeitsmarkt für Quant-Analysten ist nicht nur auf Doktoranden beschränkt, sondern setzt vielmehr voraus, dass man sich auskennt und über Fähigkeiten zur Problemlösung verfügt. Das Video behandelt auch die für den algorithmischen Handel notwendigen Hardwareanforderungen, die von der Art des durchgeführten Handels abhängen, aber im Allgemeinen reicht ein anständiger Laptop oder Desktop aus.

  • 01:05:00 Der Referent diskutiert die Hardware- und Infrastrukturanforderungen für den algorithmischen Handel. Für den Niederfrequenzhandel reichen ein anständiger Laptop oder Cloud-Computing-Optionen von Unternehmen wie Amazon und Google aus. Für den Mittelfrequenzhandel ist eine algorithmische Handelsplattform erforderlich, und ein spezialisierter Server würde einige tausend Dollar kosten, während für den Hochfrequenzhandel ein spezialisierter Server 10.000 bis 25.000 Dollar kostet. Der Referent erläutert außerdem die erforderlichen Genehmigungen vor der Liveschaltung, die von der Börse und dem Standort abhängen. Abschließend stellt der Referent klar, dass das EPAT-Programm ein umfassendes Themenspektrum abdeckt und auf praktisches Lernen ausgerichtet ist, jedoch keine Garantie für profitable Strategien bietet.

  • 01:10:00 Der Redner diskutiert die verschiedenen Arten von Algorithmen, die für den automatisierten Handel verwendet werden können, einschließlich Algorithmen mit niedriger, mittlerer und hoher Frequenz. Hochfrequenzalgorithmen werden für Arbitrage-, Market-Making- und Richtungsstrategien verwendet, die eine schnellere Berechnung erfordern. Andererseits können Algorithmen mit niedriger und mittlerer Frequenz verschiedene Strategien, einschließlich fundamentaler Investitionen, automatisieren. Der Redner erwähnt auch beliebte Strategien wie Momentum, statistische Arbitrage und optionbasierte Strategien und betont, dass der Einsatz von Algorithmen dem Handel zugute kommen kann, indem er mehr Umfang und emotionale Kontrolle bietet und eine bessere Analyse von Big Data ermöglicht. Für Einzelhändler, die sich für den algorithmischen Handel interessieren, aber keine Programmiererfahrung haben, empfiehlt der Referent, mit dem Erlernen grundlegender Statistiken und Handelsstrategien zu beginnen, und stellt Ressourcen für das selbstbestimmte Lernen bereit.

  • 01:15:00 Nitesh Khandelwal diskutiert die Idee der Verwendung von Standard-Handelsstrategien und betont, wie wichtig es ist, eine eigene Strategie zu entwickeln, anstatt sich auf bereits bestehende Strategien zu verlassen. Er spricht auch über die Rolle des Algo-Handels auf dem Kryptowährungsmarkt und erklärt, dass es zwar einige Teilnehmer gibt, die Automatisierungstools für den Handel mit Kryptowährungen verwenden, Algo-Handel jedoch nicht der Grund für den Kryptowährungsboom ist. Khandelwal geht auch auf die potenziellen Auswirkungen von künstlicher Intelligenz und maschinellem Lernen auf den Algo-Handel ein und erklärt, dass dadurch neben großen Institutionen auch Einzel- und Einzelhändlern mehr Macht verliehen wird, da die für das Training von Algorithmen erforderliche Rechenleistung erschwinglich ist.

  • 01:20:00 Der Redner erörtert den erwarteten Anstieg der Einzelhandelsbeteiligung am algorithmischen Handel aufgrund der Veränderungen und Automatisierung im Finanzsektor. Der Redner geht auch auf Fragen des Publikums zu Ressourcen für Bilanzdaten, dem Übergang von einem Nicht-Finanzunternehmen zu einem algorithmischen Händler und den besten Zahlen für CAGR und Gewinnquote im algorithmischen Handel ein. Der Redner warnt davor, sich ausschließlich auf prozentuale Renditen zu konzentrieren und fördert stattdessen Skalierbarkeit sowie eine starke Infrastruktur und Technologie.

  • 01:25:00 Der Redner diskutiert Low- und Medium-Frequency-Trading-Strategien und die Sharpe-Ratio und stellt fest, dass Renditen nicht ohne Berücksichtigung des Risikos diskutiert werden können. Er erwähnt auch die für die Gründung eines Algo-Handelsunternehmens erforderlichen Investitionen, die je nach Häufigkeit und Art der erforderlichen Infrastruktur zwischen einigen tausend und Hunderttausend Dollar liegen können. Darüber hinaus erwähnt der Redner, dass Automatisierung und Risikomanagement wichtige Überlegungen bei der Gründung eines Algo-Handelsunternehmens sind. Was die Daten betrifft, so sind Echtzeitdaten ohne Colocation in Indien möglich, es kann jedoch zu einer Verzögerung von einigen Millisekunden kommen. Der Redner geht auch auf den Genehmigungsprozess für Strategien ein und versichert den Zuhörern, dass sich der Austausch im Allgemeinen mehr auf das Risikomanagement als auf die Besonderheiten der Strategie konzentriert. Abschließend erwähnt der Redner, dass es nicht viele gute Websites für Backtests und das Schreiben von Linksstrategien auf indischen Märkten gibt.

  • 01:30:00 Der Redner diskutiert die Entwicklung von Tools für verschiedene Märkte bei Horn Insights, um eine bessere Präsenz und Vorteile für Teilnehmer und Benutzer zu bieten. Sie beantworten auch eine Frage zur Gehaltsspanne für Quants in Indien, die von Faktoren wie Erfahrung und Hintergrund abhängt. Der Redner betont, dass Colocation keine Manipulation sei und vergleicht es mit der Bezahlung von Flugreisen, um ein Ziel schneller zu erreichen als mit der Bahn. Darüber hinaus schlagen sie vor, dass die meisten auf technischen Indikatoren basierenden Strategien mit Python entwickelt werden können, und weisen darauf hin, dass im Bereich des algorithmischen Handels nicht viele fortgeschrittene Programme angeboten werden, lebenslange Anleitungen jedoch über ANNIE pat verfügbar sind.

  • 01:35:00 Der Redner geht auf alle verbleibenden Fragen oder Bedenken der Zuschauer ein. Sie versichern den Zuschauern, dass sie sich bei weiteren Zweifeln jederzeit um Hilfe wenden können und dass sie gerne Antworten auf alle Fragen geben. Abschließend dankt der Redner dem Publikum für die Teilnahme an der Sitzung und die Bemühungen, so viele Fragen wie möglich zu beantworten.
AMA on Algorithmic Trading | By Nitesh Khandelwal
AMA on Algorithmic Trading | By Nitesh Khandelwal
  • 2017.12.06
  • www.youtube.com
In this is session on AMA on Algorithmic Trading, get answers to all your question from "What is Algorithmic Trading?" and "How you can pursue it?"********Le...