Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Algorithmischer Handel auf Rohstoffmärkten
Algorithmischer Handel auf Rohstoffmärkten
Sunil Lani, stellvertretender Vizepräsident bei NCDEX (National Commodity and Derivatives Exchange), nutzt die Gelegenheit, in die Welt des algorithmischen Handels auf Rohstoffmärkten einzutauchen und sich dabei insbesondere auf Agrarrohstoffe zu konzentrieren. NCDEX, die größte Agrarbörse in Indien, bietet ein vielfältiges Angebot von etwa 20 Rohstoffen zum Handel an.
Lani stellt zunächst die drei beliebten Handelsstile vor, die üblicherweise auf Rohstoffmärkten eingesetzt werden: Absicherung, Arbitrage und direktionaler Handel. Er hebt die Absicherung als eine Anlagestrategie hervor, die dazu dient, das mit einer Primärinvestition verbundene Risiko zu mindern. Im Zusammenhang mit NCDEX sichern Landwirte häufig ihre zugrunde liegenden landwirtschaftlichen Vermögenswerte ab, um das Risiko zu minimieren.
Anschließend verlagert der Redner die Diskussion auf zwei Arten von Handelsstrategien, die auf den Rohstoffmärkten vorherrschen: Absicherung und Arbitrage. Lani betont die Bedeutung stark korrelierter Basiswerte in Absicherungsstrategien. Für den Arbitragehandel geht er auf zwei spezifische Ansätze ein: Calendar Spread und Pair Trading, wobei er darauf hinweist, dass Letzterer Ähnlichkeiten mit Absicherungsstrategien aufweist. Lani betont die Bedeutung der Auswahl hochkorrelierter und kointegrierter Rohstoffe für den Paarhandel und schlägt die Anwendung des T-Fuller-Tests vor, um die Gültigkeit von Korrelationen sicherzustellen.
Darüber hinaus bietet Lani einen Überblick über die verschiedenen Phasen des algorithmischen Handels. Er erklärt, dass der Prozess mit der Identifizierung und dem Herausfiltern geeigneter Skripte oder Instrumente zur Anwendung des Handelskonzepts beginnt. Anschließend wird das Modell visualisiert, gefolgt von einem rigorosen Backtesting und der Optimierung von Parametern oder des Modells selbst. Die nächsten Schritte umfassen den Papierhandel und schließlich den Übergang zum Live-Handel, bei dem es um echtes Geld geht.
Lani setzt seine Diskussion fort und konzentriert sich auf die ersten Schritte des algorithmischen Handels. Er betont, wie wichtig es ist, Handelsideen zu sammeln und eine Handelslogik zu entwickeln, die mit den Zielen des Händlers übereinstimmt. Zu den wichtigsten Überlegungen gehören die Bestimmung der Handelshäufigkeit, die Auswahl des geeigneten Handelssegments und die Festlegung der Backtesting-Zeiträume. Um die Herausforderungen beim Verständnis von Daten für Handelsstrategien zu veranschaulichen, stellt der Redner Daten zur Bruttoinlandsproduktion (BIP) Indiens in verschiedenen Sektoren vor. Er wandelt die Daten in grafische Darstellungen um, was ein besseres Verständnis erleichtert, und schlägt vor, Korrelationen mit Preisbewegungen zu untersuchen. Darüber hinaus präsentiert Lani visuelle Darstellungen historischer Agrardaten und betont dabei die Bedeutung der Analyse von Daten aus mehreren Perspektiven.
Anschließend geht der Redner auf die Ressourcen ein, die für den algorithmischen Handel auf den Rohstoffmärkten erforderlich sind. Er kategorisiert Handelsstrategien in zwei Hauptbereiche: Arbitrage und Momentum. Techniken wie Paarhandel, Korrelationsanalyse, gleitende Durchschnitte und Wahrscheinlichkeitsverteilung werden häufig eingesetzt. Die Infrastruktur ist ein entscheidender Aspekt des algorithmischen Handels, einschließlich der Konnektivität zu einem Broker über eine API und dem Hosten des Algorithmus entweder in der Cloud oder vor Ort. Lani betont außerdem die Bedeutung der Datenvisualisierung und technischer Indikatoren, die mit Tools wie Excel, Tableau, Power BI und TradingView erreicht werden können.
Lani untersucht außerdem verschiedene Tools und Plattformen, die für den algorithmischen Handel auf Rohstoffmärkten geeignet sind. Er erwähnt, dass Nicht-Programmierer oder Halbprogrammierer sich häufig für Plattformen wie Metatrader und Interactive Brokers entscheiden. Für reine Programmierzwecke entwickelt sich Python zur führenden Sprache, wobei Python-basierte algorithmische Handelsplattformen wie Quantopian, Blueshift, QuanTX und Zerodha immer beliebter werden. Darüber hinaus hebt der Redner wichtige Bibliotheken für die Datenverarbeitung und das Backtesting hervor, darunter Pandas, Numpy, Beautifulsoup, Backtrader, sowie Sentiment-Analyse-Bibliotheken wie Stream Python, Feedparser, Peopie und NLP.
Im darauffolgenden Abschnitt erklärt Lani den Prozess der Generierung einer Handelsidee und des Entwurfs eines Modells am Beispiel von Agrarrohstoffen. Da Agrarrohstoffe tendenziell weniger volatil sind als Aktien oder Devisen, schlägt er die Anwendung einer Mean-Reversion-Strategie unter Verwendung von Bollinger-Bändern als Indikator vor, die speziell auf zwei Standardabweichungen von der mittleren Preisspanne festgelegt ist. Zu den Filterkriterien für die Auswahl eines liquiden Rohstoffs gehört die Auswahl eines Rohstoffs mit einem Volumen von mindestens 1080, und Lani empfiehlt, Jana im NCDX zu handeln. Um das Modell zu visualisieren, schlägt Lani vor, investing.com zu verwenden, um die Bollinger-Bänder zu zeichnen, wobei verschiedene Niveaus die Kauf- und Verkaufspunkte angeben.
Lani verlagert den Schwerpunkt auf Backtesting und betont dessen Bedeutung für die Überprüfung der Logik eines algorithmischen Handelsmodells anhand historischer Daten. Dieser Schritt ist entscheidend, um potenzielle Verluste zu vermeiden, wenn das Modell in einer Live-Umgebung bereitgestellt wird. Lani erklärt die Schritte des Backtestings, zu denen das Herunterladen von Daten aus einem offenen Portal, das Importieren relevanter Bibliotheken, das Schreiben unterstützender Funktionen, das Generieren von Kauf- und Verkaufssignalen, die Visualisierung der Ausgabe und die Bewertung der durch die Strategie generierten Rendite gehören. Er schlägt außerdem vor, beim Backtesting Parameter wie Rendite, maximalen Drawdown, maximalen Gewinn und Stop-Loss zu berücksichtigen. Lani empfiehlt, persönliche Backtesting-Funktionen zu nutzen, anstatt sich ausschließlich auf Bibliotheken zu verlassen, die von Plattformen wie Github bezogen werden.
Anschließend erklärt der Redner die verschiedenen Parameter, die eine Funktion berücksichtigt, um Kauf- und Verkaufssignale basierend auf Datenrahmen, Strategietypen, Ein- und Ausstiegskriterien und Positionsfeeds zu generieren. Händler können den Eröffnungs- oder Schlusskurs für ihre Berechnungen konfigurieren sowie Stop-Loss- und Zielprozentsätze festlegen. Lani bespricht außerdem eine statistische Berichtsfunktion und eine weitere Funktion, die anhand der Standardabweichung für einen ausgewählten Indikator Niveaus erstellt. Schließlich ruft die Hauptfunktion diese anderen Funktionen auf, um Kauf- und Verkaufssignale basierend auf der gewählten Strategie zurückzugeben und eine Zusammenfassung zu erstellen.
Im weiteren Verlauf demonstriert Lani, wie man mithilfe von BV-Übungspositionierungsfähigkeiten Trading-Backtesting-Berichte erstellt. Die Ausgabe umfasst einen Datenrahmen, der alle Trades, Transaktionsgebühren und Slip-Edges enthält. Die Backtesting-Funktion wird aufgerufen und die Berichte werden generiert. Diese Berichte bieten Statistiken und grafische Darstellungen der Ausgabe und zeigen die prozentualen Renditen, Transaktionsdetails und kumulierten Renditen über einen bestimmten Zeitraum. Lani analysiert den Bericht und schlägt vor, einen Stop-Loss bei etwa -1,5 festzulegen, um Verluste über -2 % oder -3 % zu vermeiden. Der aus den Backtesting-Ergebnissen erzielte maximale Gewinn betrug 8 %, was darauf hinweist, dass der Stop-Loss auf maximal 8 % oder 9 % festgelegt werden kann.
Anschließend erläutert der Referent den Prozess der Optimierung eines Algorithmus. Lani erklärt, dass ein Optimierungsansatz darin besteht, einen anderen Algorithmus zu erstellen, der den ursprünglichen Algorithmus mehrmals unter Verwendung unterschiedlicher Parametersätze ausführt. Um dies zu veranschaulichen, liefert er ein Beispiel, bei dem der Lookback-Zeitraum für einen Rollback-Zeitraum optimiert wird. Durch die Erstellung einer Liste verschiedener Werte für den Lookback-Zeitraum und die Verwendung einer Kombinationsfunktion kann eine umfassende Liste aller Parametersätze generiert werden. Lani betont, wie wichtig es ist, Algorithmen zu optimieren, um ihre Leistung auf den Rohstoffmärkten zu verbessern.
Lani setzt die Diskussion über die Optimierung fort und erklärt den Prozess der Verwendung von drei Listen zur Bewertung jedes Paares durch die Ellenbogenmethode mit unterschiedlichen Parametern für das Backtesting. Die Backtesting-Ergebnisse werden in einem Datenrahmen namens DF-Optimierer gespeichert, der die Identifizierung der Kombination ermöglicht, die die maximale Rendite bringt. Die optimierten Variablen werden dann in der optimierten Rolle gespeichert. Lani warnt vor einer Überanpassung der Daten während des Optimierungsprozesses und betont, wie wichtig es ist, dieselben Parameter im nächsten Zeitraum anzuwenden, um deren Genauigkeit sicherzustellen. Abschließend lädt der Redner den Bericht herunter, um die Ergebnisse zu prüfen.
Lani stellt dann den Code vor, der zur Optimierung der Handelsparameter verwendet wird, und teilt die daraus resultierenden Statistiken mit, einschließlich Renditen, durchschnittlichen Renditen, maximalem Drawdown und Gewinn-Verlust-Verhältnis. Die optimierten Parameter führten zu einer Rendite von 22,8 %, eine deutliche Verbesserung im Vergleich zu den 9 %, die mit der vorherigen Parameterkombination erreicht wurden. Lani unterstreicht die Bedeutung des Papierhandels zum Testen von Algorithmen, ohne echtes Geld zu riskieren, und betont die Notwendigkeit von Diversifizierung, Portfoliomanagement und Risikomanagement beim Übergang zum Live-Handel. Abschließend weist er auf die Ähnlichkeiten zwischen dem Entwicklungsprozess des algorithmischen Handels und dem Lebenszyklus der Softwareproduktentwicklung hin und betont, wie wichtig es ist, alle Phasen sorgfältig auszuführen, um den Projekterfolg sicherzustellen.
Prognostizieren Sie Trends an den Aktienmärkten mithilfe von KI und Python-Programmierung
Prognostizieren Sie Trends an den Aktienmärkten mithilfe von KI und Python-Programmierung
Diese Webinar-Sitzung bietet ein praktisches Lern-Tutorial, das sich auf die Vorhersage von Trends mithilfe von KI an der Börse konzentriert. Die Teilnehmer werden sich aktiv an der Erstellung eines Klassifizierungsbaummodells mithilfe eines Jupyter-Notebooks beteiligen. Das Hauptziel besteht darin, einen Klassifizierungsbaum zu entwickeln, der als Werkzeug zur Festlegung von Handelsregeln auf der Grundlage der erwarteten positiven oder negativen zukünftigen Renditen dienen kann.
Die Verwendung eines Entscheidungsbaummodells im Handel ist eine wesentliche Technik des maschinellen Lernens, die ein immersives und interaktives Lernerlebnis bietet. Während der Sitzung haben die Teilnehmer die Möglichkeit, gemeinsam mit einem Dozenten direkt an einem Python-Notebook zu arbeiten.
Das Webinar zielt darauf ab, die folgenden Schlüsselbereiche abzudecken:
Die aufgezeichnete Sitzung befasst sich mit der Frage, wie das Entscheidungsbaummodell im Handel genutzt werden kann, um wertvolle Handelsregeln zu ermitteln. Diese Regeln dienen als Grundlage für fundierte Entscheidungen darüber, wann Wertpapiere gekauft oder verkauft werden sollen.
Im Laufe des Videos erwerben die Teilnehmer Kenntnisse über:
Um den vollen Nutzen aus diesem Webinar ziehen zu können, sollten die Teilnehmer über Folgendes verfügen:
Bei den Variablen beziehen sich die Prädiktorvariablen in diesem Zusammenhang auf die technischen Indikatoren, die zur Vorhersage von Markttrends eingesetzt werden. Andererseits gibt die Zielvariable den erwarteten Trend für den Folgetag an, nämlich ob dieser positiv oder negativ sein wird.
Quantitative Portfoliomanagementstrategien von Prodipta Ghosh – 23. Juli 2019
Quantitative Portfoliomanagementstrategien von Prodipta Ghosh – 23. Juli 2019
Prodipta Ghosh, Vizepräsidentin für quantitatives Portfoliomanagement, betont, dass es aufgrund der Unsicherheiten auf den Finanzmärkten, der Dynamik des Marktes im Laufe der Zeit und der unterschiedlichen Ziele keine einheitliche Strategie für den Aktienhandel gibt und Risikobereitschaft des Einzelnen. Er betont, dass es selbst mit einer perfekten Vision oder einem perfekten Modell der Welt unmöglich wäre, Antworten auf die Fragen der Händler zu geben, da jede Person in einem einzigartigen Kontext agiert. Daher gibt es für niemanden auf der Welt eine perfekte Strategie.
Während seiner Präsentation befasst sich Prodipta Ghosh mit vier quantitativen Portfoliomanagementstrategien. Zu diesen Strategien gehören die Verwendung von Bollinger-Bändern, die Verwendung einer einfachen Crossover-Strategie mit gleitendem Durchschnitt, die Analyse des Doji-Candlestick-Musters und die Einbeziehung des Relative Strength Index (RSI). Während eine hohe Sharpe-Ratio theoretisch die beste Strategie vermuten lässt, kann die Leistung in der Vergangenheit nicht immer zukünftige Ergebnisse garantieren. Daher ist es von entscheidender Bedeutung, ein Portfolio aufzubauen, das verschiedene Strategien und Vermögenswerte umfasst, um Risiken zu mindern und erhebliche Verluste zu vermeiden. Ghosh demonstriert die Vorteile einer gleichmäßigen Kapitalallokation für alle vier Strategien und zeigt, wie ein diversifiziertes Portfolio Marktvolatilität standhalten und erhebliche Verluste verhindern kann.
Prodipta Ghosh erläutert die Grundlagen des Portfoliomanagements und unterscheidet es von der Investition in eine einzelne Aktie. Beim Portfoliomanagement geht es um die Entwicklung einer Strategie für mehrere Strategien oder Vermögenswerte unter Berücksichtigung von Risiken, Unsicherheiten, Zeitablauf und spezifischen Kontexten. Der Wert einer Strategie ergibt sich aus den zugrunde liegenden Renditen multipliziert mit den Positionen, während der Portfoliowert durch den gewichteten Strom der zugrunde liegenden Renditen bestimmt wird. Um das Portfoliomanagement zu optimieren, wird ein mathematisches Problem gelöst, indem eine Funktion U definiert wird, die vom Portfoliowert P abhängt, und die Gewichte W ermittelt werden, die U maximieren. Verschiedene Optimierungsstrategien, wie z. B. Mean-Varianz-Optimierung, Kelly-Optimierung und Risikostrafe Optimierung kann basierend auf der Definition von U und dem Optimierungsansatz eingesetzt werden.
Anschließend geht der Referent auf quantitative Portfoliomanagementstrategien und die Rolle von Optimierungsproblemen in diesem Prozess ein. Er untersucht die verschiedenen Einschränkungen, die in einem Optimierungsproblem angegeben werden können, wie z. B. die Begrenzung der Bandbreite eines Portfolios, und die Arten von Portfolios, die aufgebaut werden können, einschließlich solcher, die auf Alpha-Strategien, Faktor-Portfolios oder Sammlungen einzelner Aktien basieren. Das Ziel besteht darin, eine Maximierungsbedingung zu definieren, die zu einem Portfolio mit maximalem Wert oder einer Funktion des Portfoliowerts führt. Darüber hinaus geht der Referent auf die Frage ein, ob ein gleichgewichtetes Portfolio sinnvoll ist, was von konkreten Umständen abhängt und als Optimierungsproblem mit einem Abzug auf das Fehlerquadrat angesehen werden kann.
Prodipta Ghosh befasst sich mit dem Konzept von Risiko und Nutzen im Portfoliomanagement und beleuchtet die Herausforderungen bei der Schätzung erwarteter Renditen und Risiken. Er stellt die moderne Portfoliotheorie und den quadratischen Nutzen als Ansätze zur Renditemaximierung bei gleichzeitiger Risikominimierung vor. Der Redner nutzt das Beispiel des Saint-Pittsburgh-Paradoxons, um zu veranschaulichen, wie menschliche Entscheidungen von mathematischen Durchschnittswerten abweichen können.
Die Beziehung zwischen Nutzen und Risiko wird von Prodipta Ghosh erläutert, die deren Bedeutung für den Aufbau eines soliden Portfolios hervorhebt. Er demonstriert das Konzept der Risikoprämie, das die Differenz zwischen der erwarteten Auszahlung oder Rendite einer riskanten Investition und dem Betrag quantifiziert, den eine Person für eine bestimmte Zahlung zu akzeptieren bereit ist. Darüber hinaus erklärt er, dass eine Nutzenfunktion eine mathematische Darstellung des Vermögens ist, die Auskunft darüber gibt, wie viel ein zusätzlicher Dollar wert ist, und dabei hilft, angemessene Investitionsbeträge zu bestimmen. Das Verständnis des Zusammenspiels zwischen Nutzen und Risiko ermöglicht es Anlegern, Portfolios zu entwickeln, die ein Gleichgewicht zwischen Risiko und Rendite herstellen.
Der Referent erörtert den Begriff der Risikoaversion bei Investitionen, der darauf hindeutet, dass Anleger bestimmte Anlagen gegenüber solchen mit schwankenden Renditen bevorzugen. Eine gängige Annahme im quantitativen Portfoliomanagement ist die Risikoaversion, wobei die Risikoprämie durch den griechischen Buchstaben Pi dargestellt wird. Diese Prämie bezeichnet den Betrag, den ein Anleger zu zahlen bereit ist, um eine schwankende Rendite von Null zu akzeptieren. Anschließend erklärt der Referent die quadratische Nutzenfunktion und wie sie zur Optimierung des Mittelwerts und der Varianz eines Portfolios führt. Beim Aufbau eines Portfolios auf der Grundlage der modernen Portfoliotheorie geht es darum, ein Gleichgewicht zwischen Mittelwert und Varianz des Portfolios zu finden.
Prodipta Ghosh erklärt dann den Prozess der Optimierung des erwarteten Portfolionutzens durch die Herstellung eines Gleichgewichts zwischen Mittelwert und Varianz. Er verwendet Excel, um Renditen verschiedener Vermögenswerte zu simulieren und berechnet die Kovarianzmatrix, die dann verwendet wird, um Portfoliorenditen, Varianz und Risiko basierend auf unterschiedlichen Gewichtungen zu bestimmen. Durch Variation der Gewichte und Berechnung der Portfoliorendite und -varianz für alle möglichen Szenarien kann ein Optimierungsproblem gelöst werden. Das resultierende Diagramm zeigt die Sharpe-Ratio, die das Verhältnis von Rendite zu Risiko darstellt, für jeden Gewichtungssatz.
Anschließend wird das Konzept der Effizienzgrenzen in der modernen Portfoliotheorie von Prodipta Ghosh vorgestellt. Er beschreibt die Effizienzgrenze als den Bereich, in dem ein Portfolio liegen sollte, um bei gegebener Risikotoleranz maximale Renditen zu erzielen. Er erklärt weiter, dass die Hinzufügung eines risikoarmen Vermögenswerts, beispielsweise eines risikofreien Vermögenswerts, dem Konzept eine interessante Dimension hinzufügt. Die höchste Sharpe-Ratio wird anhand des Tangentenportfolios ermittelt, bei dem es sich um das Portfolio handelt, das durch die Kombination des risikofreien Vermögenswerts mit der Effizienzgrenze gebildet wird. Die Linie, die Null mit dem Tangentenportfolio verbindet, wird als Marktlinie bezeichnet und bietet bei der Festlegung der Allokation die Wahl zwischen einer Investition in das Marktportfolio oder der Entscheidung für einen risikofreien Vermögenswert.
Prodipta Ghosh befasst sich mit dem Capital Asset Pricing Model (CAPM), das die Perspektive des Risikos im Finanzwesen verändert, indem es es als Beitrag zum Marktportfolio und nicht als eigenständiges Risiko misst. CAPM erfasst die erforderliche Rendite für einen risikoreichen Vermögenswert, berechnet als risikofreier Zinssatz zuzüglich eines Beitrags zum Marktportfolio in Bezug auf das Risiko, multipliziert mit der Differenz zwischen der Marktrendite und der risikofreien Rendite. Dieses Konzept bietet eine theoretische Grundlage für Value Investing. Durch verschiedene Modelle, wie zum Beispiel Discounted-Cashflow- und Kompressionsmodelle, können Anleger mithilfe von CAPM einen fairen Preis schätzen und von einem besseren Verständnis des idiosynkratischen Risikos profitieren.
Der Referent diskutiert verschiedene Portfoliomanagementstrategien, mit besonderem Fokus auf Faktorinvestitionen. Beim Factor Investing müssen beim Aufbau eines Portfolios mehrere Risikofaktoren berücksichtigt werden, die über das reine Marktrisiko hinausgehen. Mit jedem Faktor ist eine Prämie verbunden, die zu unterschiedlichen Anlagestilen führt, einschließlich Faktorallokation, Faktor-Timing oder einer Rückkehr zu Value-Investitionen und Aktienauswahl. Faktorinvestitionen helfen bei der Erklärung idiosynkratischer Risiken und bieten eine neue Interpretation von Alpha und Beta, wobei Alpha und Beta zum gesamten Alpha werden, wenn das Delta F in der Gleichung zeitinvariant und positiv ist.
Prodipta Ghosh beleuchtet die großen Unterschiede zwischen Value Investing und Factor Investing und überlegt, welcher Ansatz für Einzelhändler sinnvoller ist. Er weist darauf hin, dass Value-Investitionen umfassende Recherchen zu einzelnen Unternehmen erfordern und oft eine Konzentration auf idiosynkratische Risiken mit sich bringen, was für kleine Einzelhändler möglicherweise nicht geeignet ist. Andererseits geht es beim Factor Investing darum, die Risikotreiber des Marktes zu erforschen und sie systematisch zu nutzen, um Investitionen auf der Grundlage erwarteter Renditen zuzuteilen. Der Redner geht kurz auf die Unterschiede zwischen diskretionärer und quantitativer Forschung ein und stellt fest, dass quantitatives Management bei richtiger Anwendung mehr Möglichkeiten für eine Outperformance bieten kann.
Der Redner vergleicht Value-Investoren und quantitative Strategen und stellt fest, dass Value-Investoren zwar eine geringere Erfolgswahrscheinlichkeit haben, aber das Potenzial haben, erhebliche Renditen zu erzielen. Quant-Strategen hingegen haben eine höhere Erfolgswahrscheinlichkeit, erzielen aber vergleichsweise geringere, aber konstante Renditen. Das Grundgesetz der Kapitalanlage beschreibt das Informationsverhältnis als das Verhältnis der Überperformance dividiert durch das Risiko des Portfolios und entspricht dem Informationskoeffizienten oder dem Fähigkeitsniveau multipliziert mit der Quadratwurzel von n, wobei n die Anzahl der unabhängigen Wetten darstellt, die abgeschlossen werden können. Quantitative Anleger können über eine höhere Anzahl von n verfügen, was ihnen die Optimierung eines Faktorportfolios ermöglicht. Ghosh geht auch auf andere Optimierungsmethoden wie KD-Optimierungen oder Risikoparitätsoptimierungen ein, die darauf abzielen, das Endvermögen über mehrere Zeiträume durch die Anhäufung von Vermögen zu maximieren.
Prodipta Ghosh geht weiter auf die Kelly-Portfoliostrategie ein und betont deren Dominanz auf lange Sicht aufgrund ihres Fokus auf die Maximierung des Endvermögens. Allerdings weist er darauf hin, dass die Kelly-Strategie auch hinsichtlich des Risikos am aggressivsten ist und möglicherweise nicht für Rentner oder Personen geeignet ist, die sich kurzfristige Risiken nicht leisten können. Darüber hinaus erläutert er die Risikoparitätsstrategie, die darauf abzielt, die einzelnen Risikobeiträge auszugleichen und dafür zu sorgen, dass die Summe der Risiken aller Vermögenswerte ausgeglichen bleibt. Obwohl es für diesen Ansatz keine theoretische Rechtfertigung gibt, wird er als sinnvolle Risikoverteilung angesehen. Bei der Entscheidung zwischen der Kelly-Strategie, der Risikoparität und der Mittelwert-Varianz-Optimierung müssen die Risikobereitschaft und die Genauigkeit der Modellierung berücksichtigt werden, die durch Faktormodellierung verbessert werden kann. Letztlich geht es bei diesen Strategien um die Abwägung von Risiko und Rendite, wobei der Schwerpunkt auf der effektiven Messung und Steuerung von Risiken liegt.
Prodipta Ghosh geht weiter auf das Thema Alpha-Strategien und deren Kombination ein, um ein abgerundetes Portfolio zu schaffen. Während Mittelwert-Varianz-Optimierungen für Alpha-Strategien eingesetzt werden können, stoßen sie auf das Problem, dass die gesamte Allokation im Portfolio einer einzigen, besten Strategie zugewiesen wird, die ausschließlich auf historischen Daten basiert. Um dieses Problem auszuräumen, führt Ghosh das Konzept der In-Sample-Strategien ein, bei denen alle Strategien die gleiche Stimme erhalten. Ein weiterer Ansatz ist das Reue-Switching-Portfolio, bei dem Techniken zur Änderungsanalyse wie Hidden-Markov-Modelle oder Änderungspunktanalysen zum Einsatz kommen, um Kapital auf verschiedene Alpha-Strategien aufzuteilen. Eine bemerkenswerte Technik ist der No-Regret-Ansatz, der das Explorations- versus Exploitation-Problem angeht, indem jede Alpha-Strategie systematisch untersucht wird, um diejenige mit dem größten Potenzial zu identifizieren, bevor massiv in sie investiert wird.
Prodipta Ghosh betont, dass für die weitere Erforschung der Portfoliooptimierung zahlreiche Ressourcen zur Verfügung stehen, darunter Plattformen wie Wikipedia und der kürzlich gestartete Kurs von Contra zum quantitativen Portfoliomanagement. Er erwähnt mehrere Möglichkeiten zum Lernen und Wachstum in der Branche durch die Programme von Contra, wie zum Beispiel ihr interaktives Lernportal zum Selbststudium und Blue Shift, das kostenloses Backtesting anbietet. Ghosh bedankt sich beim Publikum für seine Teilnahme und ermutigt es, die Website von Contra zu besuchen, um weitere Informationen und Ressourcen zu erhalten.
Algorithmischer Handel | Ist es das Richtige für Sie und wie fangen Sie an?
Algorithmischer Handel | Ist es das Richtige für Sie und wie fangen Sie an?
Meine Damen und Herren, ich möchte Nathan, den Mitbegründer von Elle Foam Advisory, vorstellen, der wertvolle Einblicke in die faszinierende Welt des algorithmischen Handels geben wird. Nathan beginnt seinen Vortrag mit der Definition des algorithmischen Handels und der Hervorhebung seiner Bedeutung in der Finanzbranche. Er erklärt, dass algorithmischer Handel den Einsatz von Computeralgorithmen zur automatischen Ausführung von Geschäften beinhaltet und in modernen Märkten eine entscheidende Rolle spielt.
Anschließend erörtert Nathan die sich entwickelnde Natur des algorithmischen Handels und wie seine Definition je nach geografischem Standort und regulatorischen Rahmenbedingungen variieren kann. In den Vereinigten Staaten fällt jede Form des systematischen Handels unter den Oberbegriff des algorithmischen Handels. In anderen Regionen spricht man jedoch ausdrücklich vom algorithmischen Handel, wenn Computeralgorithmen die Auftragsparameter selbstständig bestimmen. Diese Unterscheidung betont die vielfältigen Ansätze und Perspektiven innerhalb des Fachgebiets.
Anschließend beleuchtet der Referent die aktuellen Branchentrends im algorithmischen Handel. Er hebt die zunehmende Verbreitung von DIY-Händlern (Do-It-Yourself-Händlern) hervor, die algorithmische Strategien nutzen. Darüber hinaus präsentiert Nathan Daten, die das signifikante Marktanteilswachstum des algorithmischen Handels in Asien, den Vereinigten Staaten und Indien belegen. Trotz dieses Wachstums räumt er ein, dass die Beteiligung des Einzelhandels am algorithmischen Handel nach wie vor relativ gering ist, und verspricht, dieses Phänomen in den kommenden Folien zu erklären.
Im weiteren Verlauf untersucht Nathan die Auswirkungen des algorithmischen Handels auf den Arbeitsmarkt. Er erklärt, wie die Automatisierung menschliche Händler ersetzt und Unternehmen jetzt nach Programmierern suchen, die ausgefeilte Handelsstrategien entwickeln und die Leistungsfähigkeit von Maschinen nutzen. Der Redner betont vier Hauptvorteile des maschinellen Handels gegenüber dem menschlichen Handel: Betriebszeit, Reaktionszeit, Skalierbarkeit und die Fähigkeit zu lernen und sich zu verbessern. Maschinen können Risiken kontinuierlich überwachen, Geschäfte zeitnah ausführen, sich effizient an Marktveränderungen anpassen und effektiver aus ihren Erfahrungen lernen als menschliche Händler.
Nathan geht auf die geringe Beteiligung des Einzelhandels am algorithmischen Handel ein und nennt mehrere Gründe für diese Diskrepanz. Erstens erfordert der algorithmische Handel eine Kombination aus technischem Wissen, einschließlich Codierung und Statistik, mit einem soliden Verständnis der Finanzen und Marktdynamik. Zweitens ist der Zugang zu relevanten Marktdaten für Backtesting und die Entwicklung robuster Strategien von entscheidender Bedeutung. Schließlich kann der Übergang vom manuellen Handel zum algorithmischen Handel ohne die Anleitung erfahrener Marktexperten, die über praktisches Fachwissen auf diesem Gebiet verfügen, eine Herausforderung sein. Trotz dieser Hindernisse hebt Nathan die unbestreitbaren Vorteile des algorithmischen Handels hervor, wie Skalierbarkeit, effektives Risikomanagement und die Eliminierung menschlicher Fehler, was ihn zu einer attraktiven Option für Händler macht.
Anschließend stellt Nathan dem Publikum den von Point Density angebotenen EPAct-Kurs vor. Er erörtert die Schwierigkeit, eine Plattform zu finden, die umfassende Unterstützung für den algorithmischen Handel bietet und Anleitungen von Marktpraktikern, technisches Wissen und aktuelle Inhalte umfasst. Der EPAct-Kurs zielt darauf ab, diese Lücke zu schließen, indem er umfangreiche, von Branchenexperten erstellte Inhalte bietet, die kontinuierlich aktualisiert werden, um die neuesten Trends widerzuspiegeln. Der Kurs bietet außerdem engagierte Unterstützung durch die Fakultät und verfolgt einen marktorientierten Ansatz, was ihn zu einer idealen Ressource sowohl für Einsteiger, die sich in den algorithmischen Handel wagen, als auch für diejenigen, die ihre Karriere in diesem Bereich vorantreiben möchten, macht.
Nathan führt den Kursinhalt weiter aus und erläutert die Module, die im Programm für algorithmischen Handel behandelt werden. Der Kurs beginnt mit einem Einführungsmodul, das eine Grundlage mit grundlegender Statistik, Wahrscheinlichkeitstheorie und der Anwendung von Finanzmodellen schafft. Anschließend werden Python-Grundlagen und erweiterte Statistiken behandelt, einschließlich Gaußscher Modelle, die zum Verständnis komplexer Strategien verwendet werden. Der Kurs umfasst auch Sitzungen zum Erstellen von Lebensläufen, zum Einrichten eines persönlichen Trading Desks und zur Durchführung von Probeinterviews für Praktika bei über 100 Partnerunternehmen. Während des gesamten Kurses unterstützt der Dozent die Studierenden persönlich und stellt sicher, dass etwaige Fragen oder Schwierigkeiten umgehend gelöst werden. Darüber hinaus gewährt die Teilnahme am EPAct-Kurs exklusive Vorteile, einschließlich Zugang zu Community-Events und -Funktionen, die in den kommenden Abschnitten näher erläutert werden.
Nathan setzt seine Präsentation fort und geht auf die Details der einzelnen Module des Kurses zum algorithmischen Handel ein. Der Kurs beginnt mit dem Modul „Bausteine“, das die Grundlage für das Verständnis von Gerechtigkeitseffekten und zukünftigen Strategien legt. Die Studierenden nehmen an praktischen Übungen teil, um verschiedene Handelsstrategien zu entwickeln. Anschließend befasst sich das Programm mit der Mikrostruktur und Implementierung des Marktes und untersucht die Feinheiten von Backtesting-Ideen anhand historischer Daten mithilfe verschiedener APIs und Broker. Maschinelles Lernen wird auch als aufstrebendes Feld im algorithmischen Handel eingeführt. Die Bedeutung des Handels und der Frontoperationen wird hervorgehoben, wobei ein spezielles Modul sich auf den Aufbau einer algorithmischen Handelsinfrastruktur konzentriert. Der Kurs behandelt auch Optionshandel, Portfoliooptimierung und Risikomanagement. Abschließend führen die Studierenden ein Projekt durch und erhalten nach erfolgreichem Bestehen der Prüfung ein verifiziertes Zertifikat, das ihre Fachkenntnisse im algorithmischen Handel bestätigt.
Anschließend lenkt Nathan die Aufmerksamkeit des Publikums auf das Algorithmic Trading-Programm von QuantInsti. Er betont, dass die Teilnehmer nach Abschluss des Programms ein verifiziertes Wirkungszertifikat erhalten, nachdem sie einen umfassenden Kurs von mehr als 300 Stunden absolviert haben. Die Fakultät besteht aus renommierten Fachleuten der Branche, die zugänglich sind und praktische Erfahrung in verschiedenen Anlageklassen und Rollen bieten. Der Kurs deckt verschiedene Aspekte ab, die von der Lebenslauferstellung bis hin zur Bereitstellung des Zugriffs auf APIs und Maklernetzwerke für eine nahtlose Implementierung reichen. Darüber hinaus unterstützt das QuantInsti-Team die Teilnehmer bei Möglichkeiten zur Mittelbeschaffung, was es zur idealen Wahl für diejenigen macht, die eine umfassende Ausbildung im algorithmischen Handel anstreben.
Im Anschluss an Nathans Diskussion betritt Nadine die Bühne, um das Publikum über die Vorteile der Mitgliedschaft in der EPAT-Community aufzuklären. Sie betont die lebenslange Beratung, die den Mitgliedern der Gemeinschaft zur Verfügung steht, sowie die Möglichkeit, mit Kommilitonen aus über 165 Ländern in Kontakt zu treten. Zu den Privilegien der Community gehören exklusive Veranstaltungen und Sitzungen, kostenloser und subventionierter Zugang zu Brokern und Zugang zu Backtesting-Tools wie BlueShift. Darüber hinaus erweitert EPAT die vorhandenen Fähigkeiten einer Person um eine grundlegende quantitative Dimension und verbessert so ihr berufliches Profil. Insbesondere wird das EPAT-Programm im Rahmen des Finanzausbildungsprogramms anerkannt und Berufstätige in Singapur können von einer Erstattung in Höhe von 2.000 Singapur-Dollar profitieren.
Zum Abschluss der Präsentation teilt Ben Magnano seine persönliche Reise im algorithmischen Handel. Er erzählt von seinen frühen Schwierigkeiten mit dem Daytrading im Jahr 2005, bis er QuantInsti gründete, wo er eine gründliche Ausbildung in den Grundlagen des quantitativen und algorithmischen Handels erhielt. Ben betont, wie wichtig es ist, Python zu lernen und eigene Programme schreiben zu können, um schließlich sein Zertifikat als quantitativer Händler zu erwerben. Dieser Erfolg öffnete ihm Türen und führte zu einer Chance als Forschungsberater bei WorldQuant, wo er seine Programmierfähigkeiten weiter verfeinert und über die neuesten Branchentrends wie künstliche Intelligenz auf dem Laufenden bleibt.
In den letzten Momenten des Videos erkennt der Redner das enorme Wachstum des algorithmischen Handels an und wie er zunehmend von Händlern bevorzugt wird, die den Bedarf an ständiger Überwachung minimieren möchten. Der Redner bedankt sich für die außergewöhnliche Analyse der Referenten und würdigt die wertvollen Erkenntnisse, die während der Präsentation vermittelt wurden. Am Ende des Videos fasst der Redner das ePAD-Programm zusammen, das darauf ausgelegt ist, den Teilnehmern industrietaugliche Fähigkeiten im quantitativen und FinTech-Bereich zu vermitteln und sicherzustellen, dass sie gut vorbereitet sind, um im Bereich des algorithmischen Handels erfolgreich zu sein.
Risikomodelle für Quant Trading von Zura Kakushadze – 16. Mai 2019
Risikomodelle für Quant Trading von Zura Kakushadze – 16. Mai 2019
Zura Kakushadze konzentriert sich in seiner Diskussion auf die Herausforderungen, die mit der Berechnung der Umkehrung der Kovarianzmatrix zur Optimierung von Portfolios mit 2.000 US-Aktien verbunden sind. Er betont, dass die Kovarianzmatrix der Stichprobe singulär wird und nicht invertiert werden kann, wenn die Anzahl der Beobachtungen in der Zeitreihe der Renditen kleiner ist als die Anzahl der Aktien im Portfolio. Selbst wenn es nicht singulär wäre, wären die nicht diagonalen Elemente, die Korrelationen darstellen, außerhalb der Stichprobe äußerst instabil, es sei denn, es liegt eine deutlich größere Anzahl von Beobachtungen im Vergleich zu den Beständen vor, was bei realen Anwendungen normalerweise nicht der Fall ist.
Kakushadze erklärt, dass sich Risikomodelle für quantitative Handelsstrategien aufgrund kürzerer Haltedauern und kurzlebiger Alphas von herkömmlichen Risikomodellen unterscheiden. Lange Rückblickszeiträume sind für diese Strategien nicht wünschenswert und es sind alternative Methoden zur Berechnung der Kovarianzmatrix erforderlich. Ein gängiger Ansatz besteht darin, ein Faktormodell zu verwenden, das das Risiko in Faktorrisiko und spezifisches Risiko zerlegt. Der Vorteil des Faktormodells besteht darin, dass es die große Kovarianzmatrix durch eine viel kleinere Faktorkovarianzmatrix darstellt, was es rechnerisch effizient macht. Kakushadze weist jedoch darauf hin, dass es im Faktormodell noch komplizierte Details gibt, die berücksichtigt werden müssen.
Der Redner erörtert außerdem die Herausforderungen, die mit der Berechnung der Volatilität für jede Aktie verbunden sind, und schlägt vor, sich auf die Stichprobenkorrelationsmatrix statt auf die Stichprobenkovarianzmatrix zu konzentrieren. Aufgrund von Problemen wie Singularität, Instabilität und anderen mit der Kovarianzmatrix verbundenen Problemen wird die Stichprobenkorrelationsmatrix bevorzugt. Kakushadze schlägt vor, verzerrte Varianzen herauszufaktorisieren und anstelle der Kovarianzmatrix ein Faktormodell für die Korrelationsmatrix zu verwenden. Es stellt sich die Frage nach der Bestimmung der Risikofaktoren, und es werden zwei Möglichkeiten vorgeschlagen: die Verwendung von Hauptkomponenten der Stichprobenkorrelationsmatrix oder die Verwendung von Stilfaktoren wie Größe, Momentum und Volatilität.
Es werden verschiedene Arten von Risikofaktoren untersucht, die für den quantitativen Handel geeignet sind, einschließlich Stilfaktoren und Branchenklassifizierungen. Der Redner betont, wie wichtig es ist, für den Handel relevante Faktoren mit kurzem Horizont zu verwenden und Faktoren mit längerem Horizont auszuschließen. Das Risiko einer unbeabsichtigten Neutralisierung wünschenswerter Alpha-Faktoren im Risikomodell wird ebenfalls diskutiert, wobei die Notwendigkeit einer sorgfältigen Auswahl und Gewichtung der Risikofaktoren betont wird.
Kakushadze erklärt, dass standardisierte Risikomodelle, die von Anbietern gekauft werden, nicht in der Lage sind, unerwünschte Risikofaktoren zu beseitigen oder alle relevanten Bereiche des Risikobereichs eines Händlers abzudecken. Daher schlägt der Redner vor, ein individuelles Risikomodell von Grund auf zu erstellen. Ein Ansatz besteht darin, statistische Risikomodelle zu verwenden, bei denen eine Zeitreihe von Renditen mit einem begrenzten Lookback-Zeitraum erstellt und Faktorladungen basierend auf den Hauptkomponenten der Stichprobenkorrelationsmatrix erstellt werden.
Das Konzept des effektiven Rangs wird eingeführt, um die Anzahl der Hauptkomponenten zu bestimmen, die als Risikofaktoren verwendet werden sollen. Der effektive Rang misst die effektive Dimensionalität einer Matrix und kann mithilfe der spektralen Entropie berechnet werden. Statistische Risikomodelle weisen jedoch Einschränkungen hinsichtlich der Anzahl der Risikofaktoren auf, da diese durch die Anzahl der Beobachtungen eingeschränkt werden, was zu einer begrenzten Abdeckung des Risikoraums führt. Auch die Instabilität höherer Hauptkomponenten außerhalb der Stichprobe gibt Anlass zur Sorge.
Die Instabilität paarweiser Korrelationen außerhalb der Stichprobe und nicht diagonaler Elemente in der Korrelationsmatrix wird diskutiert. Kakushadze erklärt, dass höhere Hauptkomponenten, die aus einer instabilen Korrelationsmatrix berechnet werden, häufig aktualisiert werden und instabil sind, während die erste Hauptkomponente tendenziell relativ stabil ist. Der Redner befasst sich auch mit der Definition von Stilfaktoren, die für Short-Holding-Strategien geeignet sind, und schlägt vor, statistisch unbedeutende Korrelationen, wie etwa ausstehende Aktien, aus Intraday-Handelsstrategien zu streichen.
Es werden vier gemeinsame Faktoren besprochen, die in quantitativen Handelsmodellen mit kurzem Horizont verwendet werden: Richtung (Momentum), Volatilität, Liquidität und Preis. Kakushadze erklärt, wie jeder Faktor definiert ist und wie Faktorrenditen mithilfe der Querschnittsregression berechnet werden können. Bei der Bestimmung ihrer statistischen Relevanz und Eignung für Handelsstrategien steht die Berechnung der annualisierten Sharpe Ratio für jede Faktorrendite im Vordergrund.
Der Referent geht weiter zum Testen und Verifizieren von Faktorladungen und der Wirksamkeit von Stilfaktoren bei der Risikomodellierung. Als eine Möglichkeit zum Testen der Faktorladungen wird ein Backtesting von Intraday-Geschäften oder kürzeren Alpha-Geschäften auf Residuen nach Herausrechnung historischer Renditen mithilfe der Faktorladungen empfohlen. Der Wert großer Sektoren im Vergleich zu Stilfaktoren wird hervorgehoben, selbst auf der am wenigsten granularen Ebene. Es wird empfohlen, Risikomodelle basierend auf Branchen oder Unterbranchen unter Verwendung grundlegender Branchenklassifizierungen zu erstellen, da diese einen größeren Teil des Risikoraums abdecken. Die Stabilität der ersten Hauptkomponente außerhalb der Stichprobe beeinflusst die Wirksamkeit dieser Risikomodelle.
Die Erstellung einer Faktorladungsmatrix für eine große Anzahl von Unterbranchen wird diskutiert und hierarchische Branchenklassifizierungen als Lösung vorgeschlagen. Bei diesem Ansatz werden zunächst Teilbranchen modelliert und dann die nächste granulare Branchenebene zur Modellierung der Risikofaktoren verwendet. Dies wird fortgesetzt, bis das Problem auf eine kleinere Matrix reduziert ist, die ordnungsgemäß berechnet werden kann.
Es wird der Prozess der schrittweisen Reduzierung von Problemen zur Berechnung von Risikomodellen für den quantitativen Handel erläutert. Indem Kakushadze zunächst eine Faktorladungsmatrix kleinerer Größe, z. B. 10 x 10, zur Stichproben-Kovarianzmatrix berechnet, erstellt er ein Ein-Faktor-Modell für den verbleibenden Faktor, den Markt. Dadurch wird das Problem von einer großen Matrix auf eine kleinere reduziert. Es wird empfohlen, Stilfaktoren in diese Konstruktion einzubeziehen, ihr Beitrag kann jedoch im Vergleich zu einer größeren Anzahl von Risikofaktoren aus verschiedenen Branchen begrenzt sein. Stilfaktoren sind möglicherweise keine idealen Proxys für die Modellierung von Korrelationen zwischen Aktien.
Es wird erklärt, wie wichtig es ist, einen Achsenabschnitt in den Normalisierungsprozess von Stilfaktoren einzubeziehen. Der Redner stellt klar, dass der Logarithmus des Preises, der normalerweise als Stilfaktor verwendet wird, tatsächlich der Logarithmus des Preises dividiert durch einen Normalisierungsfaktor ist. Der Normalisierungsfaktor ist empirisch und kann je nach Präferenz des Händlers angepasst werden. Während branchenbasierte Faktoren tendenziell zuverlässige Proxys für die Modellierung von Korrelationen sind, gelten bilineare Kombinationen von Stilfaktoren als schlechte Proxys. Daher wird Händlern empfohlen, sich auf branchenbasierte Faktoren zu konzentrieren und ihre Modelle an ihren Handelsstil und ihre quantitativen Handelsalphas anzupassen.
Der Redner stellt das Konzept der Heterosis vor, das leistungsstarke Ideen wie Faktormodelle, Branchenklassifizierungen und Hauptkomponenten zu einer Konstruktion kombiniert, die bei der Risikomodellierung äußerst effektiv sein kann. Clustering-Techniken werden auch als Möglichkeit zur Konstruktion von Risikofaktoren mithilfe mehrstufiger Clustering-Schemata diskutiert, die grundlegende Branchenklassifizierungen ersetzen können. Allerdings können nichtdeterministische Clustering-Algorithmen bei jeder Ausführung unterschiedliche Clusterings erzeugen, was zu Rauschen im System führt. Um das Rauschen zu reduzieren, kann eine große Anzahl von Clustern gemittelt oder andere Techniken wie Dimensionsreduktion oder Hauptkomponentenanalyse eingesetzt werden.
Es werden verschiedene Ansätze zur Clusterbildung in quantitativen Handelsrisikomodellen untersucht. Der Sprecher erklärt, dass k-Means-Clustering zwar möglicherweise nicht deterministisch ist, deterministische Alternativen wie hierarchisches Clustering jedoch subjektiv und langsamer sein können. Der Referent schlägt vor, Risikomodelle selbst zur Aggregation zu nutzen, anstatt sich ausschließlich auf Clustering zu verlassen. Im Fall von k-Mitteln ergibt sich die nichtdeterministische Natur aus der Initialisierung von Clusterzentren, aber das Finden des globalen Minimums ist nicht immer notwendig. Um den naiven Ansatz der Verwendung historischer Renditen zu verbessern, wird vorgeschlagen, die Renditen anhand historischer Volatilitäten zu normalisieren.
Für den Quantenhandel werden Clusternormalisierung und Multi-Level-Clustering diskutiert. Um Portfolios zu optimieren und die Leistung zu verbessern, wird empfohlen, die Clusterbildung durch Division der Renditen durch die Varianz durchzuführen, anstatt die Renditen mit zwei Standardabweichungen zu normalisieren. Es werden zwei Ansätze für das Multi-Level-Clustering vorgestellt: Bottom-Up-Ansätze, bei denen die granularste Ebene zuerst erstellt wird, gefolgt von der sukzessiven Clusterung von Clustern, und Top-Down-Ansätze, bei denen zuerst die am wenigsten granulare Ebene erstellt wird, gefolgt von der sukzessiven Clusterung von Tickern. Nichtdeterministische Algorithmen wie hierarchische Algorithmen bieten im Hinblick auf die Leistung im Vergleich zu deterministischen Algorithmen keine Vorteile, und der Sprecher schlägt die Verwendung von Clustering- und Aggregationstechniken vor.
Der Referent befasst sich mit der Frage der Bestimmung der Anzahl von Clustern in Clustering-basierten Risikomodellen. Traditionelle Methoden wie die Ellenbogenmethode oder die Silhouettenanalyse werden erwähnt, liefern jedoch möglicherweise nicht immer zuverlässige Ergebnisse. Stattdessen schlägt der Redner die Verwendung einer Stabilitätsanalyse vor, bei der mehrere Clustering-Lösungen erstellt und die Stabilität der resultierenden Cluster gemessen werden. Die Stabilität kann mithilfe von Techniken wie Cluster-Paar-Stabilität oder Bootstrap-Stabilität beurteilt werden.
Kakushadze betont die Bedeutung der Stabilität in Cluster-basierten Risikomodellen, da instabile Cluster zu unzuverlässigen Risikoschätzungen führen können. Er schlägt vor, stabile Cluster für die Risikomodellierung zu verwenden, während instabile Cluster verworfen oder mit anderen Clustern kombiniert werden sollten, um die Stabilität zu verbessern. Als Alternative zu herkömmlichen Clustering-Methoden erwähnt der Referent auch den Einsatz von Techniken des maschinellen Lernens, beispielsweise hierarchisches Clustering mithilfe von Algorithmen des maschinellen Lernens.
Anschließend geht es weiter mit der Konstruktion von Risikomodellen auf Basis der ausgewählten Cluster. Der Redner schlägt vor, die Beispielkorrelationsmatrix innerhalb jedes Clusters zu verwenden, um die Faktorladungen abzuschätzen. Durch Zerlegen der Beispielkorrelationsmatrix jedes Clusters in seine Eigenwerte und Eigenvektoren können die Faktorladungen ermittelt werden. Anschließend kann die Faktorladungsmatrix für das gesamte Portfolio erstellt werden, indem die Faktorladungen aus jedem Cluster kombiniert werden.
Der Redner betont, wie wichtig es ist, die Faktorladungen ordnungsgemäß zu normalisieren, um sicherzustellen, dass sie Risikobeiträge darstellen. Er schlägt vor, den Kehrwert der Eigenwerte als Gewichte für die Faktorladungen zu verwenden, um Risikoparität zu erreichen. Dadurch wird sichergestellt, dass jede Aktie gleichermaßen zum Gesamtrisiko des Portfolios beiträgt. Das Risikomodell kann durch die Einbeziehung zusätzlicher Faktoren wie Stilfaktoren oder branchenbezogener Faktoren weiter verbessert werden.
Zura Kakushadze diskutiert die Herausforderungen und Ansätze bei der Erstellung von Risikomodellen für quantitative Handelsstrategien. Er betont, wie wichtig es ist, Probleme wie Singularität und Instabilität in der Kovarianzmatrix anzugehen und geeignete Risikofaktoren und Clustering-Techniken auszuwählen. Durch die Kombination von Faktormodellen, Branchenklassifizierungen und Clustering können Händler individuelle Risikomodelle erstellen, die die Risikomerkmale ihrer Portfolios effektiv erfassen.
Forex-Handel für Anfänger | Algorithmischer Handel auf Devisenmärkten von Dr. Alexis Stenfors
Forex-Handel für Anfänger | Algorithmischer Handel auf Devisenmärkten von Dr. Alexis Stenfors
Dr. Alexis Stenfors befasst sich mit einer umfassenden Analyse des Devisenmarktes (FX) mit besonderem Schwerpunkt auf Liquidität und ihrer Bedeutung. Er beginnt mit der Betonung der immensen Größe des Devisenmarktes und seiner vergleichbaren Größe im Verhältnis zum globalen Aktienmarkt. Trotz möglicher Krisen oder Naturkatastrophen bleibt die Liquidität auf dem Devisenmarkt tendenziell robust.
Dr. Stenfors beleuchtet den Wettbewerbscharakter des professionellen Devisenmarktes und weist auf seine internationale Reichweite hin. Der Handel mit einem einzelnen Währungspaar ist auf diesem Markt nicht möglich, ohne gleichzeitig mit einem anderen Währungspaar zu handeln. Dieses Merkmal unterscheidet den Devisenmarkt vom Aktienmarkt, wo der Kauf von Aktien häufiger und unkomplizierter ist. Darüber hinaus können Zentralbanken in den Devisenmarkt eingreifen, indem sie den Wert einer Währung durch Maßnahmen wie das Drucken von Geld oder direkte Interventionen beeinflussen, während solche Eingriffe am Aktienmarkt weniger üblich sind. Darüber hinaus operiert der Devisenmarkt ohne Vorschriften, Leistungsschalter und Transparenz, was den Zugriff auf zuverlässige Daten für Forschungszwecke erschwert.
Der Kern der Liquidität auf dem Devisenmarkt wird von Dr. Stenfors erläutert, der die Bedeutung von Beziehungen und Konventionen zwischen Banken hervorhebt. Im Gegensatz zu traditionellen Aktien- und Aktienmärkten können Market Maker auf dem Devisenmarkt keine Preise angeben oder Liquidität bereitstellen, es sei denn, sie wissen, dass eine andere Partei zur Gegenleistung bereit ist. Auf dem FX-Swap-Markt konzentrieren sich die Geld-Brief-Spannen der Wettbewerber in der Regel um bestimmte Ziffern, und interessanterweise geben Wettbewerber häufig genau die gleichen Spreads an, anstatt unterschiedliche Spreads anzubieten.
Marktkonventionen in der Devisenhandelsbranche werden von Dr. Stenfors erörtert, wobei der Schwerpunkt auf preis- und volumenbasierten Konventionen liegt. Diese Konventionen schreiben ein angemessenes Handelsverhalten vor und ermöglichen eine starke Beziehung zwischen Banken und Kunden. Umfragen zeigen, dass nur ein kleiner Prozentsatz der Händler Konventionen in erster Linie aus Profitgründen befolgt, während die Mehrheit sie als Mittel zur Pflege von Beziehungen und zur Aufrechterhaltung eines positiven Marktimages wahrnimmt. Der Aufstieg des algorithmischen Handels hat zu Änderungen dieser Konventionen geführt, wobei der algorithmische Handel über 70 % des Handels auf Plattformen wie EBS ausmacht.
Die Auswirkungen des algorithmischen Handels auf den Devisenmarkt werden von Dr. Stenfors diskutiert. Befürworter argumentieren, dass der Hochfrequenzhandel die Markteffizienz steigern, Transaktionskosten senken und die Liquidität verbessern kann. Skeptiker behaupten jedoch, dass Algorithmen nicht dazu geeignet seien, Konventionen einzuhalten, die ursprünglich für menschliche Beziehungen entwickelt wurden. Händler, die elektronische Plattformen nutzen, können vor Herausforderungen stehen, wenn sich der Markt beim Versuch, Geschäfte auszuführen, schnell bewegt. Liquidität wird heute als komplex und schwer zu ermitteln wahrgenommen. Trotz unterschiedlicher Standpunkte zu Algorithmen sind sich beide Seiten einig, dass die Devisenliquidität Veränderungen unterliegt, die einer genaueren Betrachtung bedürfen. Dr. Stenfors präsentiert Daten einer Handelsplattform, die auf eine gleichmäßige Aufteilung zwischen menschlichem und algorithmischem Handel im Jahr 2010 hinweisen.
Bei der Untersuchung des Volumens und der Liquidität des Devisenmarktes konzentriert sich Dr. Stenfors auf das Währungspaar Euro-Dollar als Beispiel. Er verrät, dass an drei Handelstagen die Gesamtmenge der Limit-Orders für den Euro-Dollar 1,8 Billionen betrug, mit einem geringen Spread von nur 0,08 Prozent. Dies deutet auf einen äußerst liquiden Markt mit engen Spreads hin. Allerdings führten weniger als ein Prozent aller Limit-Orders tatsächlich zu Transaktionen und die durchschnittliche Laufzeit der Limit-Orders betrug lediglich 2,5 Sekunden. Diese Ergebnisse deuten darauf hin, dass der Markt zwar liquide erscheinen mag, seine tatsächliche Liquidität jedoch möglicherweise weniger bedeutend ist, als es scheint. Dr. Stenfors stellt die Frage, ob schnell auf Liquidität zugegriffen werden kann, und führt einen Test durch, um festzustellen, ob der Markt umgehend auf Transaktionsversuche reagiert.
Dr. Stenfors teilt seine Forschung über die Auswirkungen der Einreichung von Limitaufträgen auf die Liquidität im Devisenmarkt. Bei der Analyse von 1,4 Millionen Limit-Order-Einreichungen stellt er fest, dass eine neue Limit-Order sofort Liquidität auf die andere Seite des Orderbuchs bringt, was Hochfrequenzhändlern zugute kommt. Die Liquidität verschwindet jedoch innerhalb von 0,1 Sekunden, was darauf hindeutet, dass der algorithmische Handel nur zur kurzfristigen Liquidität beiträgt. Dr. Stenfors hebt einen deutlichen Wandel in der Bereitschaft zur Unterstützung der Liquidität auf dem Devisenmarkt im letzten Jahrzehnt hervor und unterstreicht die Bedeutung der Berücksichtigung verschiedener Aspekte der Liquidität, wie z. B. preisbasierte Liquidität, volumenbasierte Liquidität, gemeinschaftsbasierte Liquidität usw geschwindigkeitsbasierte Liquidität bei der Marktanalyse.
Das Konzept der verschiedenen Ordertypen im Devisenhandel und ihre ethischen Implikationen wird von Dr. Stenfors erläutert. Er erläutert, dass Split-Orders eingesetzt werden, um große Orders in kleinere aufzuteilen, um zu verhindern, dass andere Händler ihre Orders stornieren, und um informationsreiche Orders zu verbergen. Allerdings sind Löffelbestellungen, die einen falschen Eindruck von der Marktlage vermitteln, auf den meisten Märkten typischerweise illegal. Andererseits sind Ping-Befehle, die darauf abzielen, versteckte Marktinformationen zu extrahieren, weniger kontrovers, aber interpretierbar. Dr. Stenfors stellt außerdem seine konservative Definition von Split-Orders vor und zeigt, dass sie 15–20 % der Euro-Dollar- und Dollar-Yen-Orders unter den fünf untersuchten Währungspaaren ausmachten.
Dr. Stenfors befasst sich intensiv mit der Verwendung von Split-Orders und ihrer Aggressivität auf dem Devisenmarkt. Entgegen der landläufigen Meinung weisen große Orders oft eine hohe Aggressivität auf, und Split-Orders dienen nicht nur dazu, größere Beträge zu verschleiern, sondern ermöglichen es algorithmischen Händlern auch, aggressivere Orders aufzugeben. Allerdings ist die Reaktion des Marktes auf Split-Orders viel ausgeprägter als bei typischen menschlichen Orders, und Algorithmen passen sich schnell an diese Strategie an, wodurch Split-Orders weniger effektiv sind. Die Diskussion geht auch auf Spoofing und Ping ein und weist darauf hin, dass wichtige Währungspaare wie Euro-Dollar und Dollar-Yen sehr sensibel auf Informationen reagieren und daher anfällig für Spoofing sind, während Ping verwendet wird, um versteckte Informationen zu extrahieren, indem der Markt mit Aufträgen getestet und etwaige Reaktionen beobachtet werden .
Dr. Stenfors präsentiert einen Proxy, den er entwickelt hat, um die Verbreitung von „Pinging“ in verschiedenen Devisenmärkten zu analysieren. Ein Ping-Auftrag wird storniert, bevor eine Marktveränderung eintritt, was ihn zu einem potenziellen Indikator für Ping-Aktivität macht. Anhand einer umfassenden Datenbank schätzt Dr. Stenfors, dass etwa 10 % der Orders auf dem Euro-Dollar- und dem Gelben Markt potenzielle Ping-Orders sein könnten. In Märkten wie Euro-Schweden und Dollar-Rubel steigt dieser Prozentsatz jedoch deutlich an und erreicht bis zu 50 % bzw. 80 %. Bemerkenswert ist, dass Pinging in weniger gehandelten Märkten auf der Plattform stärker ausgeprägt zu sein scheint. Dr. Stenfors weist darauf hin, dass die Untersuchung der Liquidität die Berücksichtigung verschiedener Strategien und Auftragslaufzeiten erfordert, da die Market-Making-Funktion, insbesondere im FX-Pop-Markt, zunehmend von Algorithmen ausgeführt wird.
Dr. Stenfors erörtert die sich entwickelnde Natur der Liquidität auf dem Devisenmarkt und betont die Notwendigkeit einer breiteren Palette von Kennzahlen, um sie zu bewerten. Er unterstreicht die Auswirkungen von Barrieren in Ordnungsstrategien wie Abspaltungen, Spoofing und Pinging. Obwohl diese Probleme auf den Aktienmärkten ausführlich untersucht wurden, können ihre Auswirkungen auf die Devisenliquidität trotz der größeren Größe des Devisenmarkts erheblich unterschiedlich sein. Dr. Stenfors empfiehlt Händlern, sich dieser Komplexität bewusst zu bleiben, unabhängig von den Methoden zur Auftragserteilung, und stellt zusätzliche Ressourcen für diejenigen bereit, die an einer weiteren Erkundung interessiert sind.
Dr. Alexis Stenfors bietet eine detaillierte Analyse des Devisenmarktes mit besonderem Schwerpunkt auf Liquidität und ihren verschiedenen Dimensionen. Seine Forschung beleuchtet die einzigartigen Merkmale des Devisenmarktes, einschließlich seiner Größe, seines Wettbewerbscharakters und seiner internationalen Reichweite. Er betont die Bedeutung von Marktkonventionen, die Auswirkungen des algorithmischen Handels und die Auswirkungen verschiedener Auftragsarten auf die Liquidität. Durch seine Studien deckt Dr. Stenfors die Komplexität und die sich entwickelnde Natur der Devisenliquidität auf und unterstreicht die Notwendigkeit einer umfassenden Bewertung und eines umfassenden Verständnisses in diesem dynamischen Markt.
Entwickeln und Backtesten Sie Ihre Handelsstrategien | Vollständiges Tutorial
Entwickeln und Backtesten Sie Ihre Handelsstrategien | Vollständiges Tutorial
Das Video beginnt mit der Vorstellung eines erfahrenen Quants, der Sie bei der Entwicklung und Umsetzung von Handelsstrategien mithilfe von Blueshift, einer cloudbasierten Plattform, unterstützt. Blueshift bietet umfassende Datensätze, darunter US-amerikanische und indische Aktienmärkte, sowie detaillierte Forex-Daten. Die Sitzung behandelt systematische Strategien, eine Einführung in Python, eine Einführung in Blueshift, die Erstellung wiederverwendbarer Vorlagen für Backtesting, technische Indikatoren, die Erstellung einer einfachen Strategie mithilfe eines einzelnen Indikators und die Verwaltung von Portfoliostrategien. Wichtig ist, dass die Sitzung keine Handelsempfehlungen bietet oder den Anspruch erhebt, narrensichere Strategien bereitzustellen.
Der Redner beleuchtet die unterschiedlichen Ansätze für Handelsstile, wie fundamental, technisch und quantitativ, und wie diese auf einzigartige Weise mit Trends, Mean-Reversion, Ausbrüchen und Carry umgehen. Der Entwurf einer systematischen Handelsstrategie umfasst die Auswahl von Wertpapieren, die Generierung von Kauf- und Verkaufssignalen, die Berechnung von Zielportfolios, die Ausführung von Geschäften und die kontinuierliche Verbesserung des Prozesses. Der Referent erläutert die für systematische Strategien erforderlichen Eingaben, einschließlich Preisdaten und deren Transformationen, grundlegende und nicht marktbezogene Informationen sowie Handelsregeln/-logik. Diese Regeln können auf der Grundlage der Hypothese eines Händlers oder durch datengesteuerte Techniken wie maschinelles Lernen und künstliche Intelligenz entwickelt werden.
Der Redner betont, wie wichtig es ist, Handelsstrategien durch Backtesting und Forward-Testing zu testen. Backtesting hilft Händlern, die Gültigkeit ihrer Hypothesen zu überprüfen, während Forward-Tests vor Verzerrungen und Fallstricken wie Data-Mining-Verzerrungen, Survivorship-Verzerrungen, Marktauswirkungsmodellierung und Look-Ahead-Verzerrungen schützen. Eine flexible Backtesting-Plattform ist für die Anpassung und Änderung von Strategien unerlässlich. Risikomanagement und Portfolioerstellung sind von entscheidender Bedeutung, da nicht alle Strategien in jedem Markt gut funktionieren. Der Referent gibt eine kurze Einführung in die Verwendung von Python-basiertem Code in der Blueshift-Plattform zur Strategieerstellung und zum Testen.
Das Video erklärt die vier wesentlichen Funktionen, die für das Backtesting von Handelsstrategien auf Blueshift erforderlich sind. Diese Funktionen sind „initialize“, das Anfangsparameter einrichtet, „before_trading_start“, das vor jeder Handelssitzung aufgerufen wird, „handle_data“, das bei jedem Eintreffen eines neuen Preisbalkens ausgeführt wird, und „analyze“, das für die Strategieanalyse verwendet wird. Der Referent demonstriert die Reihenfolge, in der diese Funktionen aufgerufen werden, und wie Händler ihren Code innerhalb jeder Funktion positionieren können. Der Abschnitt endet mit einer grundlegenden Einführung in die Verwendung von Python in der Blueshift-Plattform.
Für Zuschauer, die mit Python nicht vertraut sind, bietet das Video eine Einführung in die Python-Grundlagen. Es umfasst Variablen, Zeichenfolgen, Ganzzahlen, Gleitkommazahlen und Datenstrukturen wie Wörterbücher und Listen. Außerdem wird die Erstellung von Funktionen und Klassen in Python vorgestellt. Das Video befasst sich dann mit dem Blueshift-Workflow und erläutert die Schritte „Initialisieren“, „Before_Trading_Start“, „Handle_Data“ und „Analysieren“. Der Nutzen von Termin- und Bestellfunktionen wird hervorgehoben.
Der Moderator diskutiert die drei primären Ordnungsfunktionen in Blueshift. Die erste Funktion, „order_percent_target“, ermöglicht es Händlern, Positionen in zugrunde liegenden Vermögenswerten basierend auf der Gewichtung des Zielportfolios einzugehen. Die zweite Funktion „get_open_orders“ liefert die Anzahl der ausstehenden Bestellungen und die dritte Funktion „cancel_order“ ermöglicht die Stornierung von Bestellungen. Der Moderator betont die Bedeutung der Kontrolle der Handelsumgebung und demonstriert Funktionen wie „set_commission“, „set_slippage“ und „set_account_currency“. Die „Kontext“- und „Daten“-Objekte in Blueshift werden erläutert und ihre Rolle bei der Erfassung des Algorithmusstatus und dem Zugriff auf Daten veranschaulicht. Ein Beispiel veranschaulicht den Zugriff auf das Portfolio und die Daten für eine einfache Buy-and-Hold-Strategie mithilfe der Funktion „Historie“. Das Konzept der Planung mithilfe der Funktion „Schedule“ wird eingeführt, sodass Benutzer festlegen können, wann bestimmte Funktionen aufgerufen werden sollen.
Das Tutorial konzentriert sich auf die Erstellung einer Vorlage, um die Strategieentwicklung zu optimieren und sich wiederholenden Code zu vermeiden. Es werden technische Indikatorbibliotheken wie TLE und Standardbibliotheken wie Pandas und Numpy importiert. Das Wertpapieruniversum wird auf die wichtigsten Indizes eingegrenzt und die Variable „Kontext“ wird als Wörterbuch zum Speichern von Strategieparametern initialisiert. Zu diesen Parametern gehören Indikatorrückblick, Kauf-/Verkaufsschwellenwerte, gleitende Durchschnittsperioden, RSI, B-Bänder, ATR und Handelsfrequenz. Ziel dieser Vorlage ist es, den Boilerplate-Code zu minimieren und Parameter für einfache Änderungen zu standardisieren.
Der Redner stellt eine Variable zur Steuerung des Handels und zur Erstellung eines Portfolios mit Gewichtungen für jedes Instrument im Universum vor. Zu Demonstrationszwecken setzen sie Provision und Slippage auf Null. Die Funktion „handle_data“ ist so definiert, dass der Handel alle 15 Minuten ausgeführt wird. Die Funktion „run_strategy“ wird zur Hauptfunktion zum Ausführen der Strategie. Es ruft frühere Preise ab und berechnet Gewichtungen vor dem Neuausgleich mithilfe der Funktion „context.universe.prices“. Die „Rebalance“-Funktion durchläuft alle Wertpapiere im Universum und erteilt Aufträge, um Zielgewichte zu erreichen. Eine anonyme Funktion wird definiert, um das Kontextportfolio und die Gewichtungen zu drucken, und eine „Advisor“-Klasse wird erstellt, um das Gewichtungsobjekt zu berechnen.
Der Referent erklärt, wie man Eingaben für die Klasse „Berater“ definiert, einschließlich des Namens und der Signalfunktion, und wie man das Aktienauswahluniversum übergibt. Sie umfassen die Initialisierung und Speicherung der Leistung des Beraters sowie die Definition der Hauptfunktion, die die Signalfunktion aufruft, um Kauf-/Verkaufssignale zu generieren. Der Redner betont die Definition der Signalfunktion auf der Grundlage technischer Indikatoren, die oft als gewichtete Funktionen vergangener Preise ausgedrückt werden. Sie empfehlen, sich auf theoretische Arbeiten von Experten wie Cliff Asness von AQR Capital Management zu beziehen.
Technische Indikatoren und ihre Korrelation zum Markt werden auf der Grundlage statistischer Analysen unter Verwendung der Hauptkomponentenanalyse diskutiert. Technische Indikatoren fungieren als Filter für vergangene Preise oder Renditen und erfassen lang- oder kurzfristige Trends durch Filterung hoch- oder niederfrequenter Daten. Allerdings können technische Indikatoren sich selbst erfüllende Prophezeiungen sein und sind anfällig für bestimmte Arten von Handelsalgorithmen, die zu Momentum- oder Stop-Loss-Jagd führen können. Bei der Entwicklung und dem Backtesting von Handelsstrategien ist es wichtig, über ein Portfolio verschiedener Indikatoren zu verfügen.
Der Dozent erklärt den Import der technischen Analysebibliothek und listet die verfügbaren technischen Indikatoren auf. Am Beispiel von Bollinger-Bändern demonstriert der Kursleiter die Funktion „Bbands“, um den Wert der letzten Zeile abzurufen. Andere Funktionen wie RSI, MACD, Fibonacci-Unterstützung, Widerstand usw. werden ebenfalls vorgestellt. Der Kursleiter erklärt die Funktion „get_price“ und die Funktion „handle_data“, die prüft, ob es Zeit für den Handel für jeden Zeitraum ist. Die Funktion „run_strategy“ sucht mithilfe der Funktion „advisor_compute_signal_price“ nach geeigneten Argumenten, gefolgt von der Funktion „rebalance“, um Aufträge für Zielprozentsätze zu erteilen. Abschließend dient die Funktion „Analysieren“ der Strategieanalyse.
Der Redner konzentriert sich auf die Verwaltung von Strategieportfolios zur Steigerung der algorithmischen Handelsgewinne. Anstatt sich auf eine einzige Strategie zu verlassen, empfiehlt es sich, mehrere Strategien gleichzeitig oder in unterschiedlichen Zeiträumen auszuführen. Es werden vier Methoden zur Verwaltung von Strategieportfolios besprochen: Bildung eines Ausschusses, Verwendung eines Regimewechselmodells, dynamische Allokation und faktorbasiertes Investieren. Mittelung kann die Signalstabilität verbessern. Der Code der Strategie sieht die Hinzufügung eines Agenten vor, der für die Auswahl der Berater und die Kapitalzuweisung verantwortlich ist. Der Agent verwendet eine Gewichtungsfunktion, um die Beratergewichte zu aktualisieren, die sich auf die Neuausgleichsfunktion auswirken.
Der Referent erklärt, wie man Portfolios basierend auf der Anzahl der Berater definiert und gewichtet, wobei jedem Berater die gleiche Zuteilung zukommt. Sie demonstrieren die Schaffung separater Fachberater und eines Agenten, der das Kapital unter ihnen verteilt. Ein Backtest mittels QuickBacktest zeigt im Vergleich zu Einzelfällen eine deutlich verbesserte Leistung. Der Redner betont die Bedeutung des Drawdowns in einer Handelsstrategie und schlägt vor, sich das Sortino-Verhältnis und die Stabilität der Gewinn- und Verlustkurve anzusehen. Das gleichgewichtete durchschnittliche Input-Portfolio verbessert die Leistung erheblich, es gibt jedoch Raum für weitere Verbesserungen.
Der Redner stellt das Konzept des „No-Regret-Trading“ vor, bei dem es darum geht, die Anlagestrategie mit der besten Performance in einem schwer vorhersehbaren Markt zu ermitteln. Anstatt sich auf eine einzelne Investition zu verlassen, besteht die Strategie darin, die Gewichtung jeder Investition zu variieren. Der Redner empfiehlt, zur Bestimmung der Gewichtungen den exponentiellen Gradientenalgorithmus zu verwenden und diese basierend auf der Reaktion des Portfolios auf Marktszenarien anzupassen. Für die Kapitalallokation wird auch das Kelly-Kriterium vorgeschlagen, das die Rendite gegenüber der Varianz auf der Grundlage der geometrischen Brownschen Bewegung maximiert.
Der Referent erklärt die Ausgabe von Gewichten und wie sie sich bei verschiedenen Beratern unterscheiden. Sie testen ein Zufallssignal, das im Idealfall im Vergleich zu anderen Signalen weniger Zuteilung erhält, wenn es wirklich zufällig ist. Der Redner diskutiert die Agentenfunktion, die eine Liste von Beratern und einen Lernratenparameter verwendet und die Gewichtsfunktion berechnet. Es durchläuft die Beraterliste, berechnet das Beratersignal, aggregiert sie sektorweise und aktualisiert die Kontextgewichtungen basierend auf der berechneten Gewichtung. Der Abschnitt endet mit Richtlinien zur Strategieentwicklung, einschließlich der Vermeidung von Überanpassungen, der Überprüfung des Konto-Hebels und der Bereitstellung einer Liste von Demo-Strategien, die die Zuschauer erkunden können.
Der Referent erörtert verschiedene Methoden des Forward-Testings, beispielsweise den Papierhandel oder den Handel mit geringem Kapital auf Live-Märkten. Sie erwähnen, dass BlueShift derzeit weder PI Torch noch Jupiter Notebook unterstützt, sondern plant, Keras und TensorFlow zu unterstützen. Die Plattform ist nicht auf indische Märkte beschränkt und kann auf US-amerikanische und indische Aktiendaten sowie FX-Daten zugreifen. Der Redner stellt fest, dass BlueShift derzeit nicht über integrierte Debugging-Tools verfügt, erwägt jedoch, diese in Zukunft hinzuzufügen.
Der Redner spricht über Options-Backtesting und erwähnt, dass die meisten Plattformen, die es anbieten, unzuverlässig sind oder eine umfassende Datenbereinigung und -aufbereitung erfordern. Sie weisen außerdem darauf hin, dass Indian Gravitons nur liquide Futures unterstützt und keine Datenfeeds von Drittanbietern zulässt. Der empfohlene Mindestzeitraum für das Backtesting hängt von der Handelshäufigkeit ab, und obwohl für indische Märkte Daten von einer Minute verfügbar sind, sind Optimierungsläufe aufgrund technologischer Einschränkungen nicht effizient. BlueShift erhebt keine Gebühren und es gibt keine Beschränkungen hinsichtlich der Anzahl gleichzeitiger Backtests, solange der Website-Verkehr diese bewältigen kann. Backtests für PSA und die Verwendung von Python-Paketen sind möglich, aus Sicherheitsgründen gibt es jedoch eine eingeschränkte Liste verfügbarer Pakete.
Der Referent erklärt, dass Backtesting ein entscheidender Schritt bei der Entwicklung und Bewertung von Handelsstrategien ist. Es hilft festzustellen, ob eine Strategie realisierbar und profitabel ist, bevor sie in Live-Märkten eingesetzt wird. Sie unterstreichen, wie wichtig es ist, beim Backtesting Transaktionskosten, Slippage und andere reale Faktoren zu berücksichtigen, um realistische Ergebnisse sicherzustellen.
Der Redner stellt die BlueShift-Plattform vor, die eine Umgebung für Backtesting und den Einsatz von Handelsstrategien bietet. BlueShift unterstützt Backtesting auf indischen Aktien-, US-Aktien- und Devisenmärkten. Benutzer können ihre Strategien mit Python schreiben und testen und verschiedene integrierte Funktionen und Bibliotheken nutzen. Die Plattform ermöglicht es den Nutzern auch, ihre Strategien auf Papier zu handeln oder mit echtem Kapital zu handeln, je nach ihren Vorlieben.
Der Redner betont die Bedeutung von Forward-Tests, bei denen es darum geht, eine Strategie mit einer geringen Kapitalmenge auf Live-Märkten einzusetzen. Dies hilft dabei, die Leistung und das Verhalten der Strategie unter Echtzeitbedingungen zu validieren. Sie erwähnen, dass BlueShift derzeit Forward-Tests für indische Märkte unterstützt und Benutzer Papierhandel mit einem virtuellen Kapital von bis zu 1 Crore (10 Millionen) Indischen Rupien durchführen können.
Auch Options-Backtesting wird diskutiert, wobei der Redner erwähnt, dass viele bestehende Plattformen für Options-Backtesting unzuverlässig sind oder eine umfangreiche Datenbereinigung und -vorbereitung erfordern. Sie weisen darauf hin, dass BlueShift derzeit kein Options-Backtesting unterstützt, aber möglicherweise erwägt, es in Zukunft hinzuzufügen.
Bezüglich der Datenverfügbarkeit erwähnt der Redner, dass BlueShift historische Daten für indische Aktien, US-Aktien und Devisenmärkte bereitstellt. Sie stellen jedoch fest, dass Optimierungsstrategien mit Ein-Minuten-Daten für indische Märkte aufgrund technologischer Einschränkungen möglicherweise nicht effizient sind.
Der Redner stellt klar, dass BlueShift keine Gebühren für das Backtesting oder die Nutzung der Plattform erhebt. Benutzer können so viele Backtests durchführen, wie sie möchten, solange der Website-Verkehr die Belastung bewältigen kann. Sie erwähnen auch, dass BlueShift aus Sicherheitsgründen eine eingeschränkte Liste verfügbarer Python-Pakete hat, Benutzer jedoch weiterhin beliebte Pakete wie Pandas und Numpy nutzen können.
Der Redner betont die Bedeutung gründlicher Backtesting- und Forward-Testings bei der Strategieentwicklung. Sie ermutigen Benutzer, die BlueShift-Plattform für Backtests und die Umsetzung ihrer Handelsstrategien zu nutzen und dabei die in der Präsentation besprochenen Einschränkungen und Überlegungen zu berücksichtigen.
Forex-Handelsstrategien | Handelsideen entwickeln und Backtests durchführen | Vollständiges FX-Tutorial
Forex-Handelsstrategien | Handelsideen entwickeln und Backtests durchführen | Vollständiges FX-Tutorial
Während dieses informativen Webinars gibt der Referent einen umfassenden Überblick über Quantiacs BlueShift, eine leistungsstarke Strategieentwicklungsplattform für systematische Handelsstrategieforschung und Backtesting. Die Plattform bietet eine Reihe von Features und Funktionalitäten, die sie zu einem idealen Werkzeug für Händler machen.
BlueShift ist eine cloudbasierte Plattform, sodass Benutzer von überall darauf zugreifen und unterwegs Strategien entwickeln und analysieren können. Es bietet Benutzern integrierte Finanzdatensätze und ermöglicht so den bequemen Zugriff auf relevante Marktdaten für die Strategieentwicklung.
Während sich das Webinar hauptsächlich auf den Devisenmarkt (FX) konzentriert, unterstützt die BlueShift-Plattform auch den Aktien- und Terminhandel auf verschiedenen Märkten. Es wird betont, dass das geistige Eigentum der auf der Plattform entwickelten Backtesting-Strategien vollständig dem Benutzer gehört, wodurch Vertraulichkeit und Eigentum gewährleistet sind.
Der Redner geht auf die Natur des Devisenmarkts ein und hebt seinen Status als größter dezentraler Markt mit einem atemberaubenden täglichen Handelsvolumen von etwa 5 Billionen Dollar hervor. Von diesem Volumen entfallen rund 300 Milliarden Dollar auf den Einzelhandel. Der Redner erörtert mehrere Faktoren, die den Devisenmarkt vom Aktienmarkt unterscheiden, wie z. B. eine höhere Hebelwirkung, einfachere Leerverkaufsmöglichkeiten und eine relativ geringere Volatilität.
Um zu verstehen, was den Devisenmarkt antreibt, weist der Redner auf die Bedeutung makroökonomischer Faktoren wie Zahlungsbilanz, Zinssätze, Inflation, Wirtschaftswachstum und Finanzpolitik hin. Sie erwähnen auch, dass Unternehmens- und Absicherungsströme sowie plötzliche politische und geopolitische Veränderungen erhebliche Auswirkungen auf den Markt haben können. Es ist jedoch wichtig zu beachten, dass es keine standardisierte oder allgemein akzeptierte Methode zur Bewertung des Devisenmarktes gibt. Der Redner erwähnt kurz Methoden wie die Kaufkraftparität und den realen effektiven Wechselkurs, wobei fortgeschrittenere Techniken von großen Institutionen und dem Internationalen Währungsfonds (IWF) bevorzugt werden. Darüber hinaus betont der Redner die Bedeutung der kurzfristigen Finanzierungsmärkte für die Liquiditätsförderung und die Bestimmung der Übernacht-Rollover-Kosten.
Wenn es um die Entwicklung und das Backtesting von Forex-Handelsstrategien geht, stellt der Referent verschiedene Ansätze vor. Wirtschaftsmodelle wie das Geldmodell und das Verhaltensgleichgewichts-Wechselkursmodell verwenden ökonometrische Methoden zur Datenanalyse. Datengesteuerte Modelle, einschließlich Zeitreihenprognosen, nichtlinearer Zeitreihen und neuronaler Netze, werden ebenfalls als praktikable Optionen für den Devisenhandel mit kurzer Laufzeit diskutiert. Die BlueShift-Plattform wird als benutzerfreundliche Oberfläche präsentiert, die die Strategieentwicklung und das Testen erleichtert. Benutzer können unter anderem Datensätze, Startkapital und Metadatenbeschreibungen eingeben. Die Plattform bietet Tools für vollständiges Backtesting sowie die Durchführung schneller Backtests. BlueShift basiert auf der Zipline-API von Python und bietet Benutzern eine Standardstrategievorlage, mit der sie ihren Entwicklungsprozess beginnen können.
Der Referent geht auf die Grundstruktur von Forex-Handelsstrategien und die für das Backtesting erforderlichen Schlüsselfunktionen ein. Sie erläutern die Funktion „initialize“, die Baptist-Parameter und Abrechnungsparameter einrichtet. Die Funktion „Vor Handelsbeginn“ wird einmal täglich zu Beginn der Handelssitzung aufgerufen, gefolgt von der Funktion „Daten verwalten“, die jede Minute für den Minidatensatz aufgerufen wird. Schließlich wird die Funktion „Strategie“ über die API für eine bestimmte Zeit und ein bestimmtes Datum geplant und die Regeln werden vom Benutzer definiert. Nach der Durchführung eines kurzen Backtests können Benutzer auf die Registerkarte „Baptist“ zugreifen, um verschiedene Datensätze anzuzeigen, darunter die Eigenkapitalkurve, Tear-Sheets und andere Statistiken.
Das vom Referenten erläuterte Tearsheet stellt eine Reihe von Berichten zur Analyse von Handelsstrategien bereit. Es umfasst Parameter wie das maximale Omega-Verhältnis, das Sortino-Verhältnis, die Schiefe, die Kurtosis, die Stabilität der Zeitreihe und mehr. Der Redner demonstriert den Arbeitsablauf mit BlueShift, der die Initialisierung, das Durchgehen „vor Handelsbeginn“ und die „Datenverarbeitung“ sowie die Nutzung verschiedener API-Funktionen wie Planung, Festlegen von Provisionen, Festlegen von Slippage und Festlegen der Kontowährung umfasst. Der Redner erwähnt die Verfügbarkeit einer Standardvorlage für Forex-Handelsstrategien.
Der Redner erwähnt die Verfügbarkeit einer Standardvorlage für Forex-Handelsstrategien auf der BlueShift-Plattform. Diese Vorlage bietet Benutzern einen Ausgangspunkt für die Entwicklung ihrer Strategien, indem sie ihre Ein- und Ausstiegsregeln, Risikomanagementparameter und andere Anpassungsoptionen definieren.
Die BlueShift-Plattform bietet außerdem eine breite Palette integrierter technischer Indikatoren, darunter gleitende Durchschnitte, Oszillatoren und Trendfolgeindikatoren, die zur Erstellung von Handelsregeln und -signalen verwendet werden können. Benutzer können diese Indikatoren mit ihrer eigenen benutzerdefinierten Logik kombinieren, um einzigartige und personalisierte Strategien zu erstellen.
Um die Leistung einer Handelsstrategie zu validieren und zu bewerten, betont der Redner die Bedeutung der Durchführung eines strengen Backtestings. BlueShift ermöglicht es Benutzern, ihre Strategien anhand historischer Daten zu testen, um reale Handelsszenarien zu simulieren. Die Plattform bietet umfassende Leistungskennzahlen, darunter Rentabilität, Drawdown-Analyse, risikobereinigte Renditen und verschiedene Kennzahlen wie Sharpe Ratio, Sortino Ratio und Calmar Ratio.
Sobald eine Strategie einem Backtest unterzogen und validiert wurde, schlägt der Redner vor, dass der nächste Schritt darin besteht, sie in einer Live-Handelsumgebung einzusetzen. BlueShift bietet die Integration mit mehreren Brokern, sodass Benutzer ihre Strategien direkt von der Plattform aus ausführen können. Diese nahtlose Integration gewährleistet einen reibungslosen Übergang von der Strategieentwicklung zum Live-Handel.
Der Redner schließt das Webinar ab, indem er die Vorteile der Verwendung von BlueShift für die Entwicklung und das Backtesting von Forex-Strategien hervorhebt. Die Plattform bietet eine benutzerfreundliche Oberfläche, Zugriff auf verschiedene Finanzdatensätze und einen umfassenden Satz an Tools und Indikatoren. Es ermöglicht Händlern, ihre Forex-Handelsstrategien einfach und effizient zu entwickeln, zu testen und umzusetzen.
Das Webinar bietet einen detaillierten Überblick über die BlueShift-Plattform, ihre Fähigkeiten und ihre Anwendung bei der Entwicklung von Devisenhandelsstrategien. Es bietet wertvolle Einblicke in den Devisenmarkt, verschiedene Modellierungsansätze und die Bedeutung eines robusten Backtestings. Für Händler, die ihre Forex-Handelsstrategien verbessern möchten, ist BlueShift möglicherweise ein wertvolles Tool in ihrem Arsenal.
Strategien sind immer besser als eine. Der Redner erwähnt auch verschiedene Methoden zur Risikokapitalallokation wie LE-Kriterien, gleichgewichtete und Momentum-gewichtete Strategien. Darüber hinaus liefert er eine Beispielstrategie unter Verwendung des technischen Indikators Bollinger Bands und zeigt die beeindruckenden Statistiken der Backtest-Ergebnisse. Abschließend betont er, wie wichtig es ist, die Stabilität der Strategierendite im Laufe der Zeit zu messen, um Konsistenz sicherzustellen und eine Überanpassung zu vermeiden.
Wie EPAT Ihnen helfen kann! von Nitesh Khandelwal – 28. Juni 2018
Wie EPAT Ihnen helfen kann! von Nitesh Khandelwal – 28. Juni 2018
Nitesh Khandelwal, der Redner, stellt sich und sein Unternehmen ConTeSt als Anbieter von algorithmischer und quantitativer Handelsausbildung seit acht Jahren vor. Er teilt zunächst seinen persönlichen Hintergrund mit, angefangen von seiner Zeit als Ingenieur bis hin zu seiner Erfahrung in der Bankenbranche. Anschließend hebt er den Start des Executed Program Algorithmic Trading (EPAT) hervor, eines sechsmonatigen Programms, das Beratung, Schulung und einen reibungslosen Übergang zum Handel im Bereich des Hochfrequenzhandels (HFT) bietet. Khandelwal erwähnt seine Erfahrungen in Singapur, wo er Tests für Börsen weltweit einrichtete und das Geschäft auf globaler Ebene ausbaute.
Im Folgenden erörtert Khandelwal den algorithmischen Handel und sein Wachstum im Vergleich zum DIY-Handel (Do-it-yourself). Er stellt Statistiken vor, die den erheblichen Anstieg des algorithmischen Handels in Asien, Europa und den USA belegen, und verdeutlicht, dass Händler es mittlerweile vorziehen, ihre eigenen Handelsentscheidungen zu treffen, anstatt sich auf Broker zu verlassen. Er stellt jedoch fest, dass der algorithmische Handel zwar einen erheblichen Teil der Marktaktivität in Indien ausmacht, die Beteiligung des Einzelhandels jedoch relativ gering bleibt. Khandelwal verweist auf einen Artikel von Bloomberg, der die zunehmende Rolle von Robotern bei der Ersetzung von Finanzjobs untersucht.
Khandelwal erklärt weiter, warum Einzelhändler nicht in der Lage waren, den algorithmischen Handel einzuführen, und schlägt Möglichkeiten vor, um sicherzustellen, dass er eher zu einem Wegbereiter als zu einer Bedrohung wird. Er betont den Bedarf an statistischem und technischem Wissen, Zugang zu hochwertigen Marktdaten und effizienten Brokern sowie Anleitung durch Praktiker beim Übergang zur Automatisierung. Er erklärt, wie EPAT geschaffen wurde, um diesen Bedürfnissen gerecht zu werden und Personen, die am Algo-Handel oder der Automatisierung ihrer Strategien interessiert sind, Orientierungshilfe zu bieten.
Als nächstes erörtert Khandelwal die Funktionen von EPAT. Er erwähnt, dass das Programm umfangreiche Inhalte bietet, die von Praktikern, Fachexperten und führenden Fondsmanagern erstellt wurden. Der Lehrplan wird kontinuierlich aktualisiert, um ihn an die Marktanforderungen anzupassen, und es wird ein lebenslanger Zugriff auf aktualisierte Inhalte gewährleistet. EPAT umfasst ein engagiertes Support-Team zur Lösung von Fragen, Fakultätsberatung für Alumni und eine Karrierezelle, die bei Stellenangeboten, der Einrichtung von Trading Desks, der Suche nach relevanten Brokern und Datenanbietern und mehr hilft. Darüber hinaus erhalten EPAT-Teilnehmer Zugriff auf exklusive Funktionen, die nur ihnen zur Verfügung stehen.
Khandelwal betont die Bedeutung des Primer-Moduls in EPAT, das sicherstellt, dass alle Teilnehmer den Kurs auf dem gleichen Stand beginnen. Das Primer-Modul behandelt die Grundlagen von Excel, Python, Statistik und Finanzmärkten, die grundlegende Bausteine des algorithmischen Handels sind. Er erklärt, wie sich das Primer-Modul im Laufe der Zeit weiterentwickelt, um den größtmöglichen Nutzen aus dem Programm zu ziehen. Darüber hinaus erörtert Khandelwal die Bedeutung von Python als am weitesten verbreitete Programmiersprache im Algorithmen- und Pfandhandel, was zu seiner Aufnahme in das EPAT-Programm führte.
Anschließend befasst sich der Referent mit den verschiedenen in EPAT abgedeckten Modulen und deren Herangehensweise. Das Programm umfasst Datenanalyse und Modellierung in Python, fortgeschrittene statistische Methoden, Aktieneffekte und Futures-Strategien sowie maschinelles Lernen für den Handel. Khandelwal betont, wie wichtig es ist, die Infrastruktur und Abläufe hinter Handelsstrategien sowie Optionshandelsstrategien, Portfoliooptimierung und Betriebsrisiken im algorithmischen Handel zu verstehen. Er betont auch, wie wichtig es ist, ein Projekt unter der Anleitung eines Fachexperten abzuschließen und die EPAT-Prüfung abzulegen, um ein verifiziertes Zertifikat zu erhalten.
Khandelwal bietet einen Überblick über das EPAT-Zertifikatsprogramm, das sich über sechs Monate erstreckt und über 100 Stunden Präsenzunterricht, praktische Erfahrung und über 300 Stunden Kursarbeit umfasst. Er erwähnt die angesehenen Fakultätsmitglieder, die das Programm lehren, darunter Praktiker, Akademiker und erfolgreiche Händler. Das Programm bietet Vermittlungsmöglichkeiten und unterstützt die Teilnehmer bei der Vorbereitung von Lebensläufen und Vorstellungsgesprächen, bei der Identifizierung von Qualifikationslücken und beim Zugang zu Vermittlungspartnern wie Maklern und Investmentbanken. EPAT-Teilnehmer erhalten außerdem Zugang zu privilegierten Brokerage-Daten und API-Anbietern sowie zu fortschrittlichen Backtesting-Tools wie dem Contra Blue-Simulator.
Darüber hinaus erörtert Khandelwal die Vorteile von EPAT und den Mehrwert für die Teilnehmer. Er erwähnt den Zugang zu minutengenauen Daten für indische Märkte und S&P 500-Aktien, Weiterbildungsmöglichkeiten, Karriereunterstützung und Alumni-Treffen. Er betont, dass EPAT über ein reines Zertifikat hinausgeht und eine grundlegende quantitative Dimension für bestehende Kompetenzen bietet. Khandelwal stellt klar, dass sich EPAT darauf konzentriert, den Teilnehmern beizubringen, wie sie Handelsstrategien erstellen und validieren, und nicht vorgefertigte Arbeitsstrategien bereitzustellen. Er räumt ein, dass die Erfolgsquote von Strategien je nach Faktoren wie Infrastrukturzugang, Risikomanagement und Risikobereitschaft variiert.
Khandelwal geht auf die Frage ein, ob technische Analysten ihren Handel mithilfe von Strategien wie MACD-Crossovers, gleitenden Durchschnitten und RSI automatisieren können, nachdem sie EPAT studiert haben. Er bestätigt, dass das Programm diese Strategien abdeckt und sicherstellt, dass die Teilnehmer über das Wissen und die Tools verfügen, um ihren Handel zu automatisieren.
Anschließend geht der Referent auf die Investitionen ein, die für die Gründung eines eigenen algorithmischen Trading-Desks erforderlich sind, und erklärt, dass die Steuer für Analysten von der Häufigkeit des Desks abhängt. Er erwähnt, dass EPAT sich hauptsächlich auf den Nieder- und Mittelfrequenzhandel konzentriert, aber auch Aspekte von Hochfrequenzstrategien abdeckt. Das Programm kombiniert Python, Excel, R und MATLAB und erfordert Programmierkenntnisse und konzeptionelle Klarheit. EPAT bietet Studierenden Anleitungen zum Aufbau ihrer eigenen Trading-Desks. Obwohl EPAT keine Stellenvermittlung garantiert, bietet es Alumni, die danach suchen, Beratung an.
Khandelwal stellt klar, dass EPAT zwar keine Platzierungsgarantien bietet, jedoch Beratung anbietet, um sicherzustellen, dass Kandidaten über ein grundlegendes Verständnis des algorithmischen Handels verfügen, bevor sie sich für das Programm anmelden. Er hebt den Erfolg hervor, den viele aktiv suchende EPAT-Studenten dank des umfangreichen Netzwerks von Vermittlungspartnern des Programms bei der Jobsuche oder bei beruflichen Veränderungen haben. Er erwähnt, dass das Lernmanagementsystem von EPAT lebenslangen Zugriff auf alle Sitzungen und aktualisierten Inhalte bietet und dass der Kurs einen Zeitaufwand von etwa 300 Stunden erfordert, der über drei Monate verteilt werden kann, indem täglich eine Stunde gewidmet wird. Khandelwal betont, dass sich EPAT durch seinen Fokus auf die praktische Umsetzung von eher theoretischen Kursen unterscheidet.
Khandelwal erörtert die Gebührenstruktur für den EPAT-Kurs, die für entwickelte Märkte 4.720 USD und für Indien 189.000 INR zzgl. GST beträgt. Er erwähnt auch den Bedarf an Brokern und APIs zum Codieren von Strategien und erklärt, dass die Teilnehmer in Hongkong Karriereunterstützung erwarten können, obwohl das EPAT-Team in Indien und Singapur mehr Erfolg hatte. Er weist darauf hin, dass die EPAT-Module zwar voneinander abhängig sind und als Ganzes betrachtet werden sollten, für Personen mit begrenzten Handelskenntnissen jedoch ein bis zwei Stunden täglicher Aufwand ausreichen sollten. Abschließend erwähnt er, dass der EPAT-Kurs alle Arten von Handelsstrategieparadigmen abdeckt und den Teilnehmern und Alumni Möglichkeiten zur Fernarbeit bietet.
In den Schlussbemerkungen betont der Redner, dass das EPAT-Programm umfassend ist und vollständigen Zugriff auf alle Module bietet, was es für Personen mit Technologiehintergrund wertvoll macht, die in den Bereich des algorithmischen Handels einsteigen möchten. Sie erwähnen die verschiedenen Beschäftigungsmöglichkeiten in diesem Bereich, wobei EPAT-Teilnehmer in vielen Fällen nach Abschluss des Programms ein eigenes Unternehmen gründen oder sich einen Arbeitsplatz bei namhaften Firmen sichern. Der Redner betont, wie wichtig es ist, grundlegende Statistiken, Korrelationen und Regressionen zu verstehen, um in diesem Bereich erfolgreich zu sein. Schließlich betonen sie, dass automatisierte Handelsstrategien tatsächlich Gewinne generieren und fast 50 % des Gesamtvolumens in Indien ausmachen, was auf das erhebliche Potenzial für diejenigen hinweist, die sich für algorithmischen Handel interessieren.
AMA zum algorithmischen Handel | Von Nitesh Khandelwal
AMA zum algorithmischen Handel | Von Nitesh Khandelwal
In dieser „Fragen Sie mich alles“-Sitzung zum algorithmischen Handel begrüßt Nitesh Khandelwal, Mitbegründer des Algo-Handelsunternehmens Eragy, das Publikum und teilt sein Fachwissen zu diesem Thema. Ziel der Sitzung ist es, verschiedene Aspekte des algorithmischen Handels abzudecken, darunter Plattformen und Broker, Handelsstrategien, Marktdaten, Beschäftigungsmöglichkeiten, die Einrichtung eines Algo-Trading-Desks, Vorschriften, die Zukunft des Algo-Handels sowie Lern- und Bildungsmöglichkeiten. Khandelwal erwähnt, dass die Sitzung ein Gleichgewicht zwischen vorgefertigten Fragen und Live-Fragen herstellen wird und dass sie auch individuelle Folgesitzungen für unbeantwortete Fragen anbieten.
Der Moderator erklärt zunächst verschiedene Handelsstrategien wie Niederfrequenz-, Mittelfrequenz- und Hochfrequenzhandel. Diese Strategien werden basierend auf der Latenz der Handelsinfrastruktur und der Auftragsbearbeitungszeit definiert. Der Schwerpunkt liegt auf der Betonung, dass die Latenz der Handelsstrategie wichtiger ist als die Anzahl der pro Sekunde ausgeführten Trades. Anschließend geht es im Abschnitt darum, wo man Markt- und Wirtschaftsdaten erhält, und geht auf verschiedene Datenanbieter wie Yahoo Finance, Google Finance, Quandl, Alpha Vantage und FXCM ein. Diese Anbieter bieten entweder herunterladbare Daten oder Daten an, die auf ihren Plattformen verwendet werden können.
Anschließend erörtert der Redner die Datenquellen für den algorithmischen Handel, einschließlich manueller Downloads, API-Abruf und kostenpflichtiger Anbieter wie Quandl, Global Data Feed, Trading Economics, Thomson Reuters und Active Financial. Sie gehen auch auf die Frage ein, ob Hochfrequenzhändler (HFT) im Allgemeinen manuelle Daytrader übertreffen, und erklären, dass dies von der Art der analysierten Daytrader abhängt. Wenn Händler Arbitragemöglichkeiten oder Marktineffizienzen ausnutzen, sind Maschinen möglicherweise schneller als manuelle Händler. Wenn Händler jedoch nach gründlicher Recherche Daten analysieren und manuelle Aufträge ausführen, sind Maschinen nicht unbedingt effizienter. Der Redner verwirft die Idee, dass ein übermäßig algo-gehandelter Markt kontraproduktiv sei, und stellt klar, dass die Automatisierung nicht immer einen Hochfrequenzhandel erfordert.
Das Konzept der Verwendung von Algorithmen im Handel, bekannt als „Elbows“, wird erklärt. Es ermöglicht einen effizienteren Handel und kann mithilfe mathematischer Formeln automatisiert und quantifiziert werden. Allerdings kann es schwierig sein, Marktineffizienzen zu finden, und der Wettbewerb im Hochfrequenzhandel und in der Technologieinfrastruktur wird immer teurer. Der Referent befasst sich auch mit der Frage, wie mit mehreren Strategien in einem Brokerage-Konto für ein FBI umgegangen werden soll.
Die Voraussetzungen für den algorithmischen Handel werden besprochen, einschließlich Kenntnisse in Statistik und Ökonometrie, Finanzinformatik und Quant Trading. Der Moderator erwähnt, dass diejenigen, die bei Null anfangen, diese Säulen durch frei verfügbare Ressourcen auf der Quant-Website kennenlernen können. Händler, die bereits mit Handelsstrategien vertraut sind und eine Automatisierung anstreben, können zunächst eine Broker-API verwenden und schließlich ihre eigene Plattform aufbauen. Der Redner erklärt auch die verschiedenen Datenanbieter für Tick-Daten und erwähnt, dass die meisten Anbieter zwar Snapshot-Daten bereitstellen, High-End-Anbieter jedoch echte Tick-Daten zu höheren Kosten bereitstellen können. Abschließend sei darauf hingewiesen, dass für Händler, die mit ihren aktuellen Handelsstrategien bereits erfolgreich sind, das Erlernen des Algo-Handels möglicherweise nicht erforderlich ist, es sei denn, sie möchten sich weiter verbessern und experimentieren.
Die Vorteile der Automatisierung von Handelsstrategien werden diskutiert, einschließlich der Kontrolle von Emotionen, der Skalierbarkeit und der Bandbreite für die Arbeit an Strategien, während Maschinen die Ausführung übernehmen. Der Redner betont, wie wichtig es ist, einen Programmierhintergrund für den Erfolg im algorithmischen Handel zu haben, und betont, dass Python von den meisten Unternehmen weltweit weit verbreitet ist. Der Redner weist jedoch darauf hin, dass der Hochfrequenzhandel nicht für Einzelhändler geeignet ist und einige Strategien möglicherweise eine angemessene Kapitalmenge erfordern, bevor sie Erfolg haben. Dennoch kann man auch mit Grundkenntnissen in Python in den algorithmischen Handel einsteigen.
Es werden die Fähigkeiten besprochen, die erforderlich sind, um ein algorithmischer Händler zu werden, einschließlich Kenntnisse in Statistik, Ökonometrie und Handelsstrategien. Der Referent erläutert außerdem die verschiedenen Karrieremöglichkeiten im algorithmischen Handel, die von Back-Office-Rollen bis hin zu Front-Office-Trading-Rollen reichen. Sie erwähnen, dass Personen mit Software- und Datenwissenschaftshintergrund den Einstieg in den Algo-Handel wagen können, da ihr Hintergrund bereits eine solide Grundlage bietet und der Einstieg in die Finanzmarktseite relativ einfacher sein dürfte. Der Redner erwähnt auch einen Blog über einen 40-jährigen Absolventen von QuantInsti, der ohne vorherige Handelserfahrung erfolgreich in den algorithmischen Handel eingestiegen ist. QuantInsti wird als eine Institution hervorgehoben, die eine spezielle Karrierezelle bietet, um Einzelpersonen dabei zu helfen, die notwendigen Fähigkeiten zu erwerben und mit den richtigen Leuten in Kontakt zu treten, um in ihrer Karriere voranzukommen.
Anschließend geht der Redner auf algorithmische Handelssprachen und ihre Bedeutung in Forschung und Analyse ein. Während Hochfrequenzhandelsunternehmen C++ wegen geringerer Latenz, für Backtesting und Strategiebewertung bevorzugen, sind R und Python die beliebtere Wahl. Als Antwort auf die Frage eines Benutzers zur Verbesserung der Trefferquote und zur Bewältigung aufeinanderfolgender Verluste schlägt der Redner vor, die Parameter beim Backtesting zu optimieren und In-Sample- und Out-of-Sample-Handel zur Überprüfung auf Drawdowns zu nutzen. Auch die Marktsättigung wird angesprochen, wobei der Redner erklärt, dass die HFT-Quote als Indikator für den Wettbewerb dient und dass einfache Arbitrage-Strategien in stark gesättigten Märkten möglicherweise nicht erfolgreich sind.
Verschiedene algorithmische Handelsstrategien werden weiter untersucht, was die Notwendigkeit einer starken Technologieinfrastruktur für einfache Arbitrage- und Market-Making-Strategien hervorhebt. Der Redner geht auf verschiedene Fragen des Publikums ein, darunter die Bedeutung der Gesamtbitmenge, die Auswirkungen von HFTs auf traditionelle Händler in Indien und den Zeithorizont, der zur Analyse von Daten für den Algo-Handel verwendet wird. Sie erklären, dass der Zeithorizont von der Handelsfrequenz abhängt. Darüber hinaus ermutigt der Redner Personen mit Software- und Datenwissenschaftshintergrund, sich in den Algo-Handel zu wagen, und erklärt, dass ihr Hintergrund bereits eine solide Grundlage biete und der Einstieg in die Finanzmarktbranche relativ einfacher sein dürfte.
Nitesh Khandelwal beantwortet mehrere Fragen im Zusammenhang mit der Möglichkeit, mit ihrem Unternehmen eine Handelsplattform einzurichten, der rechtlichen Genehmigung für die Automatisierung, den Kosten und den indischen Marktvorschriften. Sie stellen klar, dass ihr Unternehmen Teilnehmern und Alumni Beratung und lebenslange Unterstützung bietet, jedoch keine Beratungsdienstleistungen anbietet. Eine Automatisierung ist möglich und die Kosten hängen von der erforderlichen Infrastruktur ab. In Ländern wie Indien muss jede Handelsstrategie vor der Automatisierung genehmigt werden, und nur der Broker kann dies im Namen des Händlers tun. Die Verwendung stochastischer und fundamentaler Indikatoren in Strategien wird diskutiert und erwähnt, dass sie manuell oder durch Software verwendet werden können. Der Redner erwähnt auch die Verfügbarkeit von Tools zum Auslesen maschinenlesbarer Nachrichten und Wirtschaftsdaten zur Erstellung von Algorithmen.
Die Sitzung befasst sich mit der Frage, ob Menschen in Indien Hochfrequenzhandel (HFT) für nicht-indische Märkte betreiben können und ob HFT Einzelhändler von den Märkten fernhält. In Bezug auf nicht-indische Märkte wird erklärt, dass der Versand von Geldern für an ausländischen Börsen notierte Handelsmargenprodukte im Rahmen des LRS-Systems nicht zulässig ist, es sei denn, man hat eine RBA-Genehmigung. Wenn jedoch ein globales Unternehmen einen Teil seines Handels an ein indisches Unternehmen auslagert, könnte dies möglich sein. Bezüglich der Auswirkungen von HFT auf Einzelhändler wird erwähnt, dass die Präsenz von HFTs die Liquidität des Marktes erhöht und die Spreads verengt, was Einzelhändlern zugute kommt. Allerdings sollten illegale Aktivitäten wie Front Running nicht erlaubt sein, unabhängig von der Domain.
Der Referent betont, dass der Hochfrequenzhandel (HFT) einzelnen Einzelhändlern nicht schadet, da diese typischerweise webbasierte Browser verwenden, die von Natur aus eine eingebaute Latenz von einigen hundert Millisekunden haben. Selbst wenn HFT-Firmen illegale Methoden anwenden, um einen schnelleren Zugang zu erhalten, hätte dies keine Auswirkungen auf den Einzelhändler, sondern würde anderen HFT-Firmen schaden, die sich an die Regeln halten. Der Redner betont, dass Einzelhändler im Allgemeinen von dem durch HFT geschaffenen effizienten Markt profitieren, da dadurch Arbitragemöglichkeiten ausgeschlossen werden. Der Redner geht auch auf eine Frage zum Erlernen des algorithmischen Handels auf Englisch ein und erörtert einige wichtige Komponenten für einen dauerhaft profitablen Handel.
Das Video unterstreicht die Bedeutung sich ständig weiterentwickelnder Handelsstrategien in der Branche des algorithmischen Handels, da sich die Märkte ständig verändern. Während nicht viele Broker in Indien den algorithmischen Handel unterstützen, bieten einige programmatische Handelsoptionen wie Semi-Algo oder El-Go an. Der Redner geht auch auf den Arbeitsmarkt für Quant-Analysten ein und betont, dass dieser nicht nur auf Doktoranden beschränkt ist, sondern vielmehr vom Wissen und den Fähigkeiten des Einzelnen zur Problemlösung abhängt. Auch die Hardware- und Infrastrukturanforderungen für den algorithmischen Handel werden berücksichtigt. Für den Niederfrequenzhandel reichen ein ordentlicher Laptop oder Cloud-Computing-Optionen von Unternehmen wie Amazon und Google aus. Für den Mittelfrequenzhandel sind eine algorithmische Handelsplattform und ein spezialisierter Server erforderlich, was einige tausend Dollar kosten kann. Für den Hochfrequenzhandel ist ein spezialisierter Server im Wert von 10.000 bis 25.000 US-Dollar erforderlich.
Der Referent erläutert die vor dem Go-Live erforderlichen Genehmigungen, die von der Börse und dem Standort abhängen. Sie stellen klar, dass das EPAT-Programm ein umfassendes Themenspektrum abdeckt und sich auf praktisches Lernen konzentriert, obwohl es keine Garantie für profitable Strategien ist. Die verschiedenen Arten von Algorithmen, die im automatisierten Handel verwendet werden, werden besprochen, einschließlich Algorithmen mit niedriger, mittlerer und hoher Frequenz. Hochfrequenzalgorithmen werden für Arbitrage-, Market-Making- und Richtungsstrategien verwendet, die eine schnellere Berechnung erfordern. Algorithmen mit niedriger und mittlerer Frequenz können verschiedene Strategien automatisieren, einschließlich grundlegender Investitionen. Beliebte Strategien wie Momentum, statistische Arbitrage und optionbasierte Strategien werden ebenfalls erwähnt, wobei Algorithmen Vorteile wie Skalierbarkeit, emotionale Kontrolle und eine bessere Analyse von Big Data bieten.
Für Einzelhändler, die sich für den algorithmischen Handel interessieren, aber keine Programmiererfahrung haben, empfiehlt der Referent, zunächst mit dem Erlernen grundlegender Statistiken und Handelsstrategien zu beginnen. Sie bieten Ressourcen für selbstbestimmtes Lernen. Nitesh Khandelwal betont die Idee, eine eigene Handelsstrategie zu entwickeln, anstatt sich auf bereits bestehende zu verlassen. Sie gehen auch auf die Rolle des Algo-Handels auf dem Kryptowährungsmarkt ein und weisen darauf hin, dass einige Teilnehmer zwar Automatisierungstools für den Handel mit Kryptowährungen verwenden, der Algo-Handel jedoch nicht der einzige Grund für den Kryptowährungsboom ist. Die potenziellen Auswirkungen von künstlicher Intelligenz und maschinellem Lernen auf den Algo-Handel werden erwähnt, wobei der Redner hervorhebt, dass sie aufgrund der Erschwinglichkeit der für das Training von Algorithmen erforderlichen Rechenleistung neben großen Institutionen auch Einzel- und Einzelhändlern mehr Möglichkeiten bieten werden.
Der Redner geht außerdem auf den erwarteten Anstieg der Einzelhandelsbeteiligung am algorithmischen Handel aufgrund der Veränderungen und Automatisierung im Finanzsektor ein. Sie beantworten Fragen des Publikums zu Ressourcen für Bilanzdaten, zum Übergang von einem Nicht-Finanzunternehmen zu einem algorithmischen Händler sowie zu den idealen Zahlen für CAGR (Compound Annual Growth Rate) und Gewinnquote im algorithmischen Handel. Der Redner warnt davor, sich ausschließlich auf prozentuale Renditen zu konzentrieren und betont stattdessen Skalierbarkeit, starke Infrastruktur und Technologie als wichtige Überlegungen.
Die Sitzung endet damit, dass der Redner die Bedeutung der Berücksichtigung von Risiken bei der Erörterung von Renditen und den für den Start eines Algo-Handelsgeschäfts erforderlichen Investitionen erörtert, die je nach Häufigkeit und Art der benötigten Infrastruktur zwischen einigen tausend Dollar und Hunderttausenden Dollar liegen können. Der Redner erwähnt, dass Automatisierung und Risikomanagement Schlüsselfaktoren sind, die bei der Gründung eines Algo-Handelsunternehmens berücksichtigt werden müssen. Sie bieten auch Einblicke in die Verfügbarkeit von Echtzeitdaten in Indien und den Genehmigungsprozess für Handelsstrategien und betonen, dass Börsen dem Risikomanagement Vorrang vor den Besonderheiten der Strategie einräumen. Abschließend erkennt der Redner den Mangel an guten Websites für Backtests und das Schreiben von Lefty-Strategien (gehebelte und Intraday-Strategien) auf indischen Märkten an.
Im letzten Abschnitt erörtert der Redner die Entwicklung von Tools für verschiedene Märkte bei Horn Insights mit dem Ziel, den Teilnehmern und Benutzern eine bessere Präsenz und Vorteile zu bieten. Sie gehen auf eine Frage zur Gehaltsspanne für Quants in Indien ein und weisen darauf hin, dass diese von Faktoren wie Erfahrung und Hintergrund abhängt. Der Redner betont, dass Colocation keine Manipulation sei und vergleicht es mit dem Bezahlen von Flugreisen, um ein Ziel schneller zu erreichen als mit der Bahn. Sie erwähnen auch, dass die meisten auf technischen Indikatoren basierenden Strategien mit Python entwickelt werden können, und betonen, dass fortgeschrittene Programme im Bereich des algorithmischen Handels zwar nicht allgemein verfügbar sind, das ANNIE-Pat-Programm jedoch eine lebenslange Anleitung bietet.
In den letzten Momenten des Videos ermutigt der Sprecher Einzelpersonen, algorithmischen Handel zu betreiben, und erwähnt, dass sich der Markt im Laufe der Jahre erheblich weiterentwickelt hat und für Einzelhändler zugänglicher geworden ist. Sie laden die Zuschauer ein, die bei QuantInsti und Horn Insights verfügbaren Ressourcen zu erkunden, um ihr Wissen und Verständnis des algorithmischen Handels zu erweitern.