Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Erstellen Sie Ihre eigenen Algen mit ADL® von Trading Technologies
Erstellen Sie Ihre eigenen Algen mit ADL® von Trading Technologies
Andrew Reynolds, Produktmanager für automatisierte Handelstools bei Trading Technologies, stellt ADL (Algo Design Lab) als bahnbrechende Lösung zur Vereinfachung des Entwicklungsprozesses von Handelsalgorithmen vor. Vor ADL mussten Händler, die ihre eigenen Algorithmen erstellen wollten, das Programmieren erlernen, was zeitaufwändig war und einen langen Entwicklungszyklus erforderte. ADL revolutioniert den Prozess jedoch, indem es ein intuitives grafisches Tool bereitstellt, das es Händlern ermöglicht, Algorithmen zu entwerfen und bereitzustellen, ohne eine einzige Codezeile schreiben zu müssen. Dies senkt die Eintrittsbarriere hinsichtlich der technischen Fähigkeiten erheblich und ermöglicht es Händlern, Marktchancen schnell zu nutzen. ADL sorgt für optimale Leistung, indem es die entwickelten Algorithmen in gut getesteten Code umwandelt, der auf am selben Standort befindlichen Hochleistungsservern läuft.
Reynolds erläutert anschließend die wichtigsten Merkmale und Funktionen von ADL. Als Arbeitsbereich dient der ADL-Canvas, der aus einer Vielzahl von Blöcken besteht, die unterschiedliche Handelskonzepte und -vorgänge darstellen. Händler können diese Blöcke einfach per Drag-and-Drop verschieben, um Algorithmen zu erstellen. Jeder Block verfügt über spezifische Eigenschaften und kann mit anderen Blöcken verbunden werden, um die gewünschte Logik zu definieren. Gruppenblöcke ermöglichen die Kapselung spezifischer Logik und deren Speicherung als Bibliotheksblöcke zur späteren Wiederverwendung. Um die Organisation zu verbessern, können Lesezeichen hinzugefügt werden, und es steht ein Suchmechanismus zur schnellen Navigation durch Blöcke und Abschnitte zur Verfügung. ADL beinhaltet Vorhersagetechniken zur Erkennung potenzieller Blockverbindungen und beschleunigt so den Entwicklungsprozess weiter.
Im weiteren Verlauf der Präsentation demonstriert der Dozent die schrittweise Erstellung von Algorithmen mithilfe von ADL. Die Plattform bietet Echtzeit-Feedback und benutzerfreundliche Funktionen, die eine effiziente Entwicklung unterstützen. Der Dozent demonstriert das Hinzufügen von Logik auf der Eingangsseite zu einem Algorithmus, gefolgt von der Einbeziehung von Logik auf der Ausgangsseite und schließlich die Erstellung eines Algorithmus mit Logik auf der Eingangs- und Ausgangsseite. Verschiedene Blöcke wie Auftragsblöcke, Nachrichteninformationsextraktoren, Feldblöcke und Alarmblöcke werden verwendet, um die gewünschte Funktionalität der Algorithmen zu definieren. Während der gesamten Demonstration hebt der Kursleiter die Lesbarkeit und Anpassungsoptionen hervor, die Sprungblöcke bieten und es Händlern ermöglichen, ihre Algorithmen entsprechend ihren Vorlieben anzupassen.
Anschließend stellt der Kursleiter den Order Management Algo (OMA) vor, der die Anwendung algorithmischer Logik auf bestehende Aufträge ermöglicht und die Flexibilität bietet, Preis, Menge, Stop-Preis und offengelegte Menge nach Bedarf zu manipulieren. Sie erklären, wie die Bid-Drifter-Strategie umgesetzt werden kann, bei der der Preis schrittweise erhöht wird, bis die Bestellung ausgeführt wird. Der Dozent betont, dass ADL darauf ausgelegt ist, unbeabsichtigte Aktionen und Endlosschleifen zu verhindern und so die Sicherheit des Benutzers und das erwartete Verhalten zu gewährleisten. Darüber hinaus verfügt ADL über eine P&L-Risikoblockierungsfunktion, die es Händlern ermöglicht, vordefinierte Verlustschwellenwerte festzulegen und den Algorithmus automatisch zu stoppen, wenn die Verluste den angegebenen Betrag überschreiten.
Die Referenten diskutieren den Start und die Überwachung von Algorithmen mithilfe von ADL. Der Start von Algol kann über verschiedene Widgets im Front-End-Algo-Dashboard, Orderbuch oder MD Trader von Auto Trader initiiert werden. Hervorgehoben wird die Ein-Klick-Startfunktion direkt von der MD Trader-Leiter aus, die es Händlern ermöglicht, Instrumente auszuwählen und Algo-Parameter mühelos zu ändern. ADL bietet außerdem die Möglichkeit, Colocation-Einrichtungen basierend auf dem Instrument auszuwählen, und Händler können den Fortschritt ihrer Algorithmen direkt vom Frontend aus überwachen. Darüber hinaus unterstützt die Plattform die Angabe unterschiedlicher Konten für jedes Instrument beim Starten von Algorithmen und erhöht so die Flexibilität und Kontoverwaltungsoptionen.
Die Referenten betonen die Verfügbarkeit von Ressourcen, um mehr über ADL auf der Trading Technologies-Website zu erfahren, einschließlich eines Support-Forums zur Diskussion von ADL-bezogenen Themen. Sie informieren das Publikum über die bevorstehende Hinzufügung eines Analyseblocks, der die Extraktion historischer Daten und die Durchführung integrierter Studien innerhalb von ADL ermöglicht. Benutzer haben die Möglichkeit, benutzerdefinierte Studien mit historischen Daten direkt im Algorithmus zu erstellen. Die Referenten betonen, dass Trading Technologies Broker-neutral ist und eine Verbindung zu jedem Broker ermöglicht, der die Plattform unterstützt. Preisdetails werden ebenfalls erwähnt und der Algorithmustyp „Stacker-Ausgaben“ wird als häufiger Anwendungsfall identifiziert.
Die Redner vertiefen sich in die Vielseitigkeit des Schreibens von Algorithmen mithilfe von ADL und betonen, dass jeder Händler seine einzigartige „Geheimsauce“ in den algorithmischen Handel einbringen kann. Sie empfehlen das Community-Forum von Trading Technologies als hervorragende Ressource, um zusätzliche Informationen und Einblicke in beliebte algorithmische Strategien zu erhalten. Die Vorteile des Ein-Klick-Starts mit Autotradern werden erläutert, der es Händlern ermöglicht, mehrere Trades gleichzeitig zu modellieren. Sie erwähnen auch die Verfügbarkeit des ADL-Dashboards in mobilen Apps, das es Händlern ermöglicht, Algorithmen aus der Ferne anzuhalten und neu zu starten.
Die Präsentation geht weiter mit einer Diskussion über den Zugriff auf die ADL-Plattform über ein kostenloses Demokonto auf der TradeTT-Website, das sofortigen Zugriff und die Möglichkeit bietet, die Funktionen der Plattform zu erkunden. Es wird hervorgehoben, dass ADL mit großen Börsen kooperiert und über einen Pool von Servern verfügt, die sich in Einrichtungen an verschiedenen Standorten befinden, einschließlich eines Gen-Pop-Servers, auf dem Benutzer mit verschiedenen Trades experimentieren können. Die Redner gehen auch auf Webdienste und APIs ein und erwähnen die Veröffentlichung der TT REST API und den Nutzen der ADL-Plattform für den Devisenhandel.
In Bezug auf Devisenhandelsoptionen stellen die Redner klar, dass es zwar keine unmittelbaren Pläne für eine direkte Verbindung mit Forex-Börsen gibt, Forex-Funktionen jedoch auf der CME verfügbar sind und die NYSE einen Spot-Forex-Kontrakt anbietet. Sie ermutigen die Zuschauer, sich in den Foren zu engagieren, in denen Produktverbesserungen verfolgt und thematisiert werden. Der Abschluss beinhaltet eine Vorschau auf das Backprogramm und eine Aufforderung an die Teilnehmer, vor Abschluss der Webinar-Sitzung ein Umfrageformular auszufüllen.
Quantitative Finanzen | Einführung in maschinelles Lernen | Quantiacs | Von Eric Hamer
Quantitative Finanzen | Einführung in maschinelles Lernen | Quantiacs | Von Eric Hamer
Eric Hamer, der CTO von Quantiacs, stellt die Partnerschaft zwischen Quantiacs und Quantinsti vor, die darauf abzielt, die Hedgefonds-Branche zu demokratisieren. Im Rahmen dieser Zusammenarbeit werden Schulungen angeboten, die den Studierenden praktische Fertigkeiten im Umgang mit den Open-Source-Tools und -Daten von Quantiacs vermitteln. Quantiacs fungiert als Crowdsourcing-Hedgefonds und verbindet quantitative Analysten, die Algorithmen entwickeln, mit Kapital, während Quantinsti Kurse im algorithmischen Handel anbietet. Hamer betont, dass teilnehmende Quants an Quantiacs-Wettbewerben teilnehmen können, bei denen sie die Möglichkeit haben, Investitionskapital und einen Anteil am Gewinn zu gewinnen.
Hamer untersucht, wie Quantiacs die Algorithmen der Programmierer mit den Kapitalmärkten verbindet, was sowohl dem Quant als auch den Quantiacs zugute kommt, wenn sich die Strategien als erfolgreich erweisen. Quantiacs ist bestrebt, den quantitativen Handel zu fördern, indem es herunterladbare Desktop-Toolkits für MATLAB und Python, Beispielhandelsstrategien und kostenlose End-of-Day-Futures-Daten aus dem Jahr 1990 anbietet. Sie haben auch makroökonomische Indikatoren integriert, um Kunden bei der Verbesserung ihrer Algorithmen zu unterstützen. Darüber hinaus stellt Quantiacs eine Online-Plattform zur Verfügung, auf der Nutzer ihre Algorithmen kostenlos einreichen und bewerten können. Quantiacs konzentriert sich derzeit auf Futures und möchte in Zukunft möglicherweise vergleichbare Daten für die Aktienmärkte bereitstellen.
Der Referent erläutert die beiden Hauptfunktionen von Handelsstrategien auf der Quantiacs-Plattform: die Kostenfunktion und das Handelssystem. Die Kostenfunktion berücksichtigt Transaktionskosten und Provisionen, indem sie 5 % der Differenz zwischen dem höchsten und dem niedrigsten Preis eines bestimmten Tages verwendet. Andererseits ermöglicht das Handelssystem Benutzern, Preisinformationen anzufordern und einen Gewichtsvektor oder eine Gewichtsmatrix bereitzustellen, die die Portfolioallokation bestimmt. Quantiacs rät von der Verwendung globaler Variablen ab und bietet einen Einstellungsparameter zur Verwaltung der erforderlichen Statusinformationen. Hamer liefert ein Beispiel für eine einfache Handelsstrategie, die eine jährliche Rendite von 2,5 % erbracht hat. Die Ergebnisse der Strategie umfassen eine Aktienkurve, die Performance von Long- und Short-Positionen sowie die Performance einzelner Futures. Quantiacs bewertet Strategien auf der Grundlage positiver Performance, geringer Volatilität und der Sharpe Ratio, die risikobereinigte Renditen misst.
Das Konzept des maschinellen Lernens und seine Anwendungen im quantitativen Finanzwesen werden von Hamer vorgestellt. Er betont, dass ein erheblicher Teil der Geschäfte an amerikanischen Börsen, etwa 85 bis 90 %, computergeneriert sind. Techniken des maschinellen Lernens wie Regression, Klassifizierung und Clustering gewinnen in diesem Bereich zunehmend an Bedeutung. Hamer erörtert einige Fallstricke im Zusammenhang mit maschinellem Lernen und betont, wie wichtig es ist, risikobereinigte Renditen ohne übermäßigen Handel zu maximieren. Obwohl neuronale Netze hervorragende Ergebnisse liefern können, können ihre Ausführungszeiten langwierig sein und die herkömmliche CPU-Architektur ist möglicherweise nicht optimal. Es stehen jedoch leistungsstarke GPUs zur Verfügung, die die Ausführungszeit erheblich verkürzen. Obwohl es Open-Source-Bibliotheken wie Python und MATLAB gibt, kann das Einrichten und Trainieren eines Algorithmus für maschinelles Lernen ein komplexer Prozess sein, der Aufwand und Hingabe erfordert.
Hamer befasst sich mit dem Prozess des maschinellen Lernens, beginnend mit der Spezifizierung der Problemstellung und der Identifizierung der Art des maschinellen Lernproblems. Er erläutert den Bedarf an numerischen Daten beim maschinellen Lernen und erörtert die Aufteilung der Daten in Trainings- und Testsätze für das Modelltraining bzw. die Modellbewertung. Hamer liefert ein Beispiel, das zeigt, wie die Python-API von Quantiacs verwendet werden kann, um Vorhersagen zum Mini-S&P-500-Futures-Kontrakt zu treffen, und zeigt die Ergebnisse mithilfe der Keras-API für neuronale Netzwerke an.
Die Grenzen des maschinellen Lernmodells zur Vorhersage zukünftiger Aktienkurse werden von Hamer erörtert. Während das Modell zunächst den Anschein erweckt, Preise genau vorherzusagen, zeigt sich bei näherer Betrachtung, dass es lediglich die Daten von heute als Proxy für die Daten von morgen verwendet. Wenn derselbe Algorithmus auf Rohdatenrückgaben angewendet wird, folgen die Vorhersagen des Modells einer ähnlichen Form, weisen jedoch nicht dieselbe Größenordnung wie die wahren Werte auf. Hamer demonstriert die schlechte Leistung des Modells bei der Anwendung auf Handelsdaten und untersucht mögliche Verbesserungsmöglichkeiten. Außerdem gibt er einen kurzen Überblick über den Quellcode, der in seiner Handelssystemfunktion verwendet wird.
Hamer demonstriert anschließend die Erstellung eines sequentiellen Keras-Modells zur Vorhersage der S&P 500-Futures-Renditen. Das Modell beginnt mit einer Grundstruktur und bezieht spezifische Schichten ein. Hamer trainiert das Modell mithilfe von Trainingsdaten, die tatsächliche Preisdaten umfassen, während die y-Werte die vorherzusagenden Renditedaten darstellen. Nach dem Training kann Hamer das Modell aus den Einstellungen extrahieren und es verwenden, um Renditen auf der Grundlage der neuesten Daten vorherzusagen. Obwohl sein einfaches S&P 500-Minimodell keine gute Leistung erbringt, erklärt Hamer, dass geeignete Techniken und Optimierungen wie Gradientenabstieg und Boosting das Problem lösen können.
Techniken zur Verbesserung der Gültigkeit eines maschinellen Lernalgorithmus im quantitativen Finanzwesen werden von Hamer diskutiert. Er schlägt die Verwendung der Bootstrap-Aggregationstechnik vor, bei der der Algorithmus auf mehreren Teilmengen der Daten ausgeführt wird, um Erkenntnisse zu gewinnen. Es wird außerdem empfohlen, die Strategien einfach zu halten, mehrere Vorhersagen zu nutzen, um einen Konsens zu erzielen, und auf Überanpassung, Datenbereinigung und den Umgang mit fehlenden Daten und Zufallsvariablen zu achten. Hamer glaubt, dass maschinelles Lernen und künstliche Intelligenz weiterhin entscheidende Werkzeuge für die Prognose von Finanzmärkten sein werden.
Der Redner stellt die Kurse EpAT und ConTA vor, die beide spezielle Sitzungen zum maschinellen Lernen anbieten. EpAT richtet sich an Fachleute, die Wachstum im Bereich Algo oder quantitativer Handel anstreben, während ConTA einen Kurs zum Selbststudium zur Implementierung von Regressionstechniken mithilfe von maschinellem Lernen mit Python anbietet. Hamer beantwortet Fragen zur Wahl zwischen R und Python für maschinelles Lernen und gibt Ratschläge zur Vermeidung einer Überanpassung beim Testen alternativer Datensätze. Er schlägt vor, das Modell sowohl auf Trainings- als auch auf Testdaten zu trainieren und den Fehlerunterschied zwischen den beiden Sätzen zu untersuchen, um eine Überanpassung zu verhindern.
Hamer weist auf die Gefahren einer Überanpassung beim maschinellen Lernen für den Algo-Handel hin und schlägt vor, die Bootstrap-Aggregation oder Bagging-Technik einzusetzen, um einen Datensatz für Genauigkeitstests in kleinere Teilmengen aufzuteilen. Aufgrund des Rauschens und der Schwankungen der Finanzdaten kann eine Genauigkeit von mehr als 50 % als gut angesehen werden.
Abschließend betont Hamer, wie wichtig es ist, die Technologie zu verstehen, um Handelsstrategien zu automatisieren. Er betont die Notwendigkeit von Bildungsprogrammen, die die Ausbildung in den vielfältigen Fähigkeiten ermöglichen, die für den Erfolg als algorithmischer Händler erforderlich sind.
basierend auf positiver Performance, geringer Volatilität und der Sharpe Ratio, die risikobereinigte Renditen misst.
Können wir Mischungsmodelle verwenden, um Markttiefs vorherzusagen? von Brian Christopher – 25. April 2017
Können wir Mischungsmodelle verwenden, um Markttiefs vorherzusagen? von Brian Christopher – 25. April 2017
Brian Christopher, ein quantitativer Forscher und Python-Entwickler, hält eine umfassende Präsentation über die Grenzen der traditionellen Zeitreihenanalyse und stellt Mischungsmodelle, insbesondere Hidden-Markov-Modelle (HMMs), als vielversprechende Alternative zur Vorhersage von Renditen und zur Identifizierung von Marktregimen vor. Er betont die Notwendigkeit von Modellen, die instationäre Daten verarbeiten und nichtlineare Verteilungen annähern können, was für Finanzprognosen von wesentlicher Bedeutung ist.
Christopher untersucht, wie Mischungsmodelle, insbesondere HMMs, verwendet werden können, um das wahrscheinlichste Regime eines Vermögenswerts zusammen mit den zugehörigen Mittelwerten und Varianzen für jedes Regime abzuschätzen. Er erklärt den Berechnungsprozess, der den Wechsel zwischen der Berechnung von Klassenparametern und der Auswertung von Wahrscheinlichkeitsdaten beinhaltet. Das Gaußsche Mischungsmodell (GMM), ein bekanntes Mischungsmodell, geht davon aus, dass jedes Regime einer Gaußschen Verteilung folgt. Christopher demonstriert, wie der Erwartungsmaximierungsalgorithmus verwendet wird, um Wahrscheinlichkeiten und Regimeparameter bis zur Konvergenz zu berechnen. Um dies zu veranschaulichen, zeigt er ein Beispiel für die Klassifizierung der Regime niedriger Volatilität, Neutralität und hoher Volatilität eines Spionage-ETF.
Als nächstes untersucht Christopher, wie GMMs mit instationären und nichtlinearen Datensätzen umgehen können und so die Einschränkungen der traditionellen Zeitreihenanalyse überwinden. Er stellt eine Spielzeugstrategie vor, die vier Faktoren nutzt, darunter Vermögensrenditen und den Zehn-Jahres-zu-Drei-Monats-Spread des US-Finanzministeriums, um Sequenzrenditen und -parameter zu schätzen. GMMs werden zur Anpassung und Vorhersage verwendet und extrahieren die Schätzung des letzten Regime-Labels, um den Mittelwert und die Varianz des spezifischen Regimes zu bestimmen. Anstatt eine Normalverteilung anzunehmen, wird die Johnson-Su-Verteilung als Teil der Strategie verwendet, um der nichtlinearen Natur der Daten Rechnung zu tragen.
Der Redner diskutiert eine Strategie zur Vorhersage von Markttiefs, die auf der Annahme basiert, dass Renditen außerhalb der Konfidenzintervalle Ausreißer sind. Durch die Konstruktion von 99 %-Konfidenzintervallen anhand tausender Stichproben werden Ergebnisse unterhalb des unteren Konfidenzintervalls als Ausreißer betrachtet. Christopher analysiert die Renditen nach dem Ausreißerereignis und geht dabei von einer Long-Only- oder Kaufposition im ETF für eine bestimmte Anzahl von Tagen aus. Das Modell passt sich an sich ändernde Volatilität an, und obwohl die Gesamtgenauigkeit bei etwa 73 % liegt, schneidet die Aktienkurve nicht so gut ab wie eine Buy-and-Hold-Strategie. Christopher ermutigt das Publikum, die Daten selbst zu erkunden, da die in der Präsentation verwendeten Datensätze auf GitHub verfügbar sind.
Christopher teilt seine Analyse der Verwendung von Mischungsmodellen zur Vorhersage von Markttiefs für verschiedene ETFs. Er untersucht die Verteilung der durchschnittlichen Renditen für jeden ETF über verschiedene Rückschau- und Haltezeiträume hinweg. SPY, Triple Q und TLT übertreffen durchweg in verschiedenen Dimensionen, während GLD, EFA und EEM symmetrischere Verteilungen aufweisen. Er bewertet auch das Summenverhältnis, das die Gesamtrenditen von Ereignissen größer als 0 dividiert durch Renditen kleiner als 0 misst, wobei Werte größer als 1 als erfolgreich angesehen werden. SPY, Triple Q und TLT zeigen über mehrere Dimensionen und Rückblickszeiträume hinweg eine starke Leistung. Christopher warnt jedoch davor, dass längere Haltedauern stärker vom allgemeinen Markttrend beeinflusst werden könnten.
Der Moderator erörtert die Leistung verschiedener Vermögenswerte auf dem Markt mithilfe von Mischungsmodellen zur Vorhersage von Markttiefs. Die Studie zeigt, dass Vermögenswerte wie SPY, Triple Q, TLT und GLD abhängig von Variablen wie der Anzahl der Schritte oder dem Lookback-Zeitraum eine gute Leistung erbringen. Allerdings verschlechtert sich die Wertentwicklung bestimmter Vermögenswerte bei längerer Haltedauer. Die Studie bewertet die durchschnittlichen Renditen verschiedener Komponenten und identifiziert vielversprechende Ergebnisse für Vermögenswerte wie EEM und Aoife. Die Bedeutung einer korrekten Stichprobenverteilung wird betont, und die Verwendung der Johnson-Su-Verteilung hat sich als effektiv erwiesen. Insgesamt erweist sich die Strategie, die Mischungsmodelle zur Vorhersage von Markttiefs nutzt, als überzeugend.
Christopher erklärt, dass GMM zwar durchweg Erfolg mit Assets wie SPY, Triple Q und TLT gezeigt hat, es aber auch alternative Strategien gibt, die die gleiche oder eine bessere Leistung erbringen. Er geht kurz auf den Code für die Model-Runner-Klasse und die Run-Model-Convenience-Funktion ein, die die GMM-Komponenten implementiert. Er betont, dass das Modell „walk-forward“ umgesetzt wurde, um eine Voreingenommenheit zu vermeiden. Darüber hinaus stellt Christopher die von ihm verwendeten Daten im HDF5-Format auf GitHub zur Verfügung.
Der Referent erklärt, wie die ausgegebenen Daten organisiert und analysiert werden, um die Wirksamkeit der Mischungsmodellstrategie zu bewerten. Zur Bewertung von Metriken und Mittelwerten können verschiedene Slicing- und Gruppierungstechniken eingesetzt werden. Die Johnson-Su-Verteilung dient zur Anpassung an sich ändernde Volatilitäten in der Renditereihe und wird mit der Normalverteilung verglichen. Christopher weist darauf hin, dass die Genauigkeit der Normalverteilung schlecht ist und dass es vorteilhafter sein könnte, einfach den Markt zu halten. Er ermutigt jedoch Einzelpersonen, die Daten auf GitHub zu erkunden, und bietet an, Fragen zu beantworten oder an einem Webinar teilzunehmen.
Während der Frage-und-Antwort-Runde beantwortet Christopher Fragen des Publikums zu seinem Webinar über die Verwendung von Mischungsmodellen zur Vorhersage von Markttiefs. Er stellt klar, dass er die Formparameter für die Johnson-Verteilung durch eine grobe Parametersuche ermittelt und die Ergebnisse nicht ausführlich untersucht hat. Er erörtert auch, wie er hilfreiche Faktoren für sein Modell ausgewählt hat, und hebt die Einbeziehung US-basierter Zinsen oder festverzinslicher Kennzahlen hervor, um den Erfolg des Modells bei der Vorhersage US-basierter Vermögensrenditen zu steigern.
Christopher beantwortet weitere Fragen des Publikums zur Anwendung von GMM auf Renditen anstelle von Preisen, zum Skalenproblem bei der Verwendung von Preisen, zum Bias-Varianz-Problem bei mehreren Faktoren und zur Ähnlichkeit zwischen Look-Back und Backtesting. Er schlägt weitere Untersuchungen und Untersuchungen zu Kombinationen von Faktoren vor, die für ein breiteres Spektrum von Vermögenswerten eine bessere Vorhersagekraft haben. Er betont auch, wie wichtig es ist, der Anzahl der GMM-Komponenten eine natürliche Grenze zu setzen, um eine Überanpassung zu vermeiden. Christopher lädt das Publikum ein, sich für weitere Fragen und Details an ihn zu wenden.
Implizite Volatilität von der Theorie zur Praxis von Arnav Sheth – 7. März 2017
Implizite Volatilität von der Theorie zur Praxis von Arnav Sheth – 7. März 2017
Arnav Sheth, ein angesehener Professor mit umfassenden Kenntnissen über Volatilität, betritt die Bühne als Redner eines Webinars mit dem Titel „Implizite Volatilität von der Theorie zur Praxis“. Der Moderator stellt Sheth vor und hebt seine Fachkenntnisse auf diesem Gebiet hervor, einschließlich seiner Buchveröffentlichung und der Gründung einer Beratungs- und Analyseplattform. Ziel des Webinars ist es, den Teilnehmern ein umfassendes Verständnis der impliziten Volatilität, verschiedener Arten von Volatilität, Handelsstrategien unter Ausnutzung der impliziten Volatilität sowie verfügbarer Online-Ressourcen und Indizes der Chicago Board Options Exchange (CBOE) zur weiteren Erkundung zu vermitteln.
Sheth bietet zunächst einen kurzen Überblick über Optionen und deckt dabei verschiedene Volatilitäten wie historische und implizite Volatilität ab. Er geht ausführlich auf eine Handelsstrategie ein, bespricht einige CBOE-Indizes und gibt praktische Einblicke in deren Anwendung. Um einen historischen Kontext zu schaffen, teilt Sheth die Ursprünge von Optionen mit, die auf den ersten aufgezeichneten Optionskontrakt um 500 v. Chr. zurückgehen. Er erzählt die Geschichte von Thales, einem Mathematiker und Philosophen, der sich während einer reichen Ernte die Exklusivrechte an allen Olivenpressen sicherte. Diese Geschichte veranschaulicht die frühe Manifestation des Optionshandels.
Im Hinblick auf die moderne Definition von Optionen erläutert Sheth das Konzept von Call-Optionen und beschreibt sie als Verträge, die eine Spekulation oder Absicherung der Zukunft eines zugrunde liegenden Vermögenswerts ermöglichen. Er betont, dass Call-Optionen dem Empfänger das Recht, aber nicht die Pflicht, aus dem Vertrag zurückzutreten, einräumen. Sheth erklärt dann die Grundlagen des Handels mit Call- und Put-Optionen und betont, dass eine Call-Option dem Käufer das Recht einräumt, einen Basiswert zu einem bestimmten Preis zu kaufen, während eine Put-Option dem Käufer das Recht einräumt, den Basiswert zu einem vorher festgelegten Preis zu verkaufen Preis. Er betont, dass der Optionshandel ein Nullsummenspiel ist, was bedeutet, dass es auf jeden Gewinner einen Verlierer gibt, was dazu führt, dass die Gesamtgewinne und -verluste gleich Null sind. Sheth warnt vor den Risiken des Verkaufs einer Call-Option, ohne die zugrunde liegende Aktie zu besitzen, weist jedoch darauf hin, dass der Verkauf einer Call-Option dazu beitragen kann, das Risiko zu mindern, wenn man die Aktie besitzt.
Sheth befasst sich eingehender mit Optionsverträgen und deckt Long-Call-, Short-Call-, Long-Put- und Short-Put-Optionen ab. Er erläutert die möglichen Gewinn- und Verlustergebnisse und warnt Anfänger davor, sich auf den Handel mit „nackten Optionen“ einzulassen. Darüber hinaus betont er die Bedeutung der Berücksichtigung des Zeitwerts des Geldes bei der Berechnung von Gewinn und Auszahlung. Sheth unterscheidet zwischen europäischen und amerikanischen Optionen und stellt klar, dass europäische Optionen nur bei Ablauf ausgeübt werden können, während amerikanische Optionen jederzeit ausgeübt werden können. Er schließt diesen Abschnitt mit der Einführung des Black-Scholes-Merton-Preismodells ab, das er mit einem „gehebelten Aktienkauf“ vergleicht.
Der Fokus verlagert sich dann auf das Black-Scholes-Merton (BSM)-Modell und seine zugrunde liegenden Annahmen. Sheth hebt eine dieser Annahmen hervor und stellt fest, dass die Volatilität der Renditen bekannt ist und über die gesamte Laufzeit der Option konstant bleibt. Anschließend geht er auf die historische Volatilität ein, die die Standardabweichung der historischen Vermögensrenditen darstellt. Sheth erklärt seine Bedeutung für die Vorhersage der potenziellen Rentabilität einer Option und betont, dass eine höhere Volatilität den Optionspreis erhöht, da die Wahrscheinlichkeit größer ist, dass der Vermögenswert „im Geld“ landet.
Als nächstes untersucht Sheth die implizite Volatilität und ihre Rolle bei der Rückentwicklung der Volatilität aus dem Black-Scholes-Modell unter Verwendung von Marktoptionen. Die implizite Volatilität wird als erwartete Volatilität des Marktes interpretiert und auf der Grundlage von Marktoptionspreisen berechnet. Sheth führt den VIX ein, der S&P 500-Optionen mit einer Laufzeit von 30 Tagen am Geld nutzt, um die implizite Volatilität abzuschätzen. Der VIX misst die Volatilität, die der Markt während des Ablaufzeitraums der Option erwartet. Er weist darauf hin, dass Händler häufig die implizite Volatilität, die aus Optionspreisen abgeleitet wird, zur Bewertung von Optionen verwenden und nicht umgekehrt. Sheth betont, dass die implizite Volatilität konstant bleiben sollte, wenn verschiedene Strikes mit demselben Basiswert verbunden sind.
Sheth erklärt dann das Konzept der Volatilitätsabweichung bei der Optionspreisgestaltung. Er zeigt, wie die implizite Volatilität von der historischen Volatilität abweicht, wenn der Ausübungspreis divergiert, was zu einem Volatilitätsversatz führt. Sheth betont, dass der Skew nach 1987 auftrat und eine Chance für Händler darstellt, da er sich in den Optionspreisen widerspiegelt. Er führt den Begriff „Volatilitätsrisikoprämie“ ein, der die Differenz zwischen impliziter und realisierter Volatilität darstellt. Diese Prämie kann in Handelsstrategien ausgenutzt werden. Sheth stellt klar, dass das Black-Scholes-Modell zwar hauptsächlich zur Preisgestaltung von Optionen verwendet wird, es jedoch häufiger zur Ermittlung der impliziten Volatilität verwendet wird.
Die Berechnung der impliziten Volatilität auf dem Optionsmarkt wird zum nächsten Diskussionsthema. Sheth erklärt, wie Händler Marktwerte bestimmter Optionen auf Basiswerte nutzen und diese Werte in das Black-Scholes-Modell eingeben, um die Volatilität zurückzuentwickeln. Die implizite Volatilität wird dann als die erwartete Volatilität der Optionsmärkte für einen bestimmten Zeitraum, oft 30 Tage, interpretiert. Sheth stellt das Konzept der Volatilitätsrisikoprämie vor und zeigt, wie Optionsmärkte dazu neigen, die tatsächliche Volatilität zu überschätzen. Er schließt diesen Abschnitt mit der Darstellung einer Häufigkeitsverteilung der Volatilitätsprämie ab.
Der Redner geht auf Handelsstrategien ein, die auf impliziter Volatilität basieren, und konzentriert sich dabei auf das Konzept des Straddle-Verkaufs. Sheth betont, dass die implizite Volatilität typischerweise höher ist als die realisierte Volatilität, was zu überteuerten Optionen führt. Daher besteht die Strategie darin, Straddles zu verkaufen und auf Volatilität zu verzichten. Um die mit diesen Strategien verbundenen Risiken einzuschätzen, führt Sheth griechische Messungen ein, die einen Rahmen für die Risikobewertung bieten. Er bietet ein Beispielszenario mit dem Kauf eines Straddle am Geld und erörtert die Gewinn- und Verlustergebnisse basierend auf dem zugrunde liegenden Aktienkurs. Abschließend warnt Sheth, dass die Optionspreise möglicherweise nicht mehr volatilitätsempfindlich reagieren, wenn der Aktienkurs erheblich schwankt.
Im Video geht es dann um den Einsatz von Optionen als Absicherung gegen Änderungen der Aktienkurse. Sheth erklärt, dass durch den gleichzeitigen Kauf eines Calls und eines Puts oder den Verkauf beider, die dem Wert des Aktienpreises am nächsten kommen, Delta-Neutralität erreicht werden kann, Vega jedoch nicht vollständig abgesichert werden kann. Anschließend stellt Sheth CBOE-Indizes als bequeme Möglichkeit vor, von der Volatilitätsprämie zu profitieren, und erwähnt insbesondere den BXM-Index (BuyWrite Monthly), der eine Covered-Call-Strategie beinhaltet, und die BFLY-Iron-Butterfly-Option. Er erklärt, dass das Schreiben von gedeckten Calls auf die eigene Aktie das Risiko reduzieren kann, das mit dem alleinigen Halten der zugrunde liegenden Aktie verbunden ist, es aber auch die Möglichkeit birgt, die Aktie zu verlieren, wenn sie gekündigt wird. Abschließend erklärt Sheth die Strategie des Iron Butterfly, die den Kauf und Verkauf von vier Optionen mit drei Strikeouts gegenüber dem S&P 500 beinhaltet.
Gegen Ende des Webinars stellt Sheth eine Strategie vor, die den Kauf eines Out-of-the-Money-Puts und eines Out-of-the-Money-Calls beinhaltet. Diese Strategie führt zu einer Short-Volatilitätsposition, die einem Reverse Straddle ähnelt, jedoch mit einer leicht überhöhten Auszahlung, um das Gewinnpotenzial zu erhöhen.
So nutzen Sie Finanzmarktdaten für fundamentale und quantitative Analysen – 21. Februar 2017
So nutzen Sie Finanzmarktdaten für fundamentale und quantitative Analysen – 21. Februar 2017
Lautsprecher:
Lernen Sie, mit den Grundlagen profitabel zu handeln, verstehen Sie die Herausforderungen im Zusammenhang mit der Hochfrequenz-Datenanalyse, entdecken Sie die Chancen und Fallstricke beim Futures-Handel und sehen Sie sich eine Live-Demonstration einer Schritt-für-Schritt-Anleitung zu einer der beliebtesten Handelsstrategien, dem Paarhandel, an Strategie!
Informationsveranstaltung zum algorithmischen Handel
Informationsveranstaltung zum algorithmischen Handel
Zu Beginn der Informationsveranstaltung zum algorithmischen Handel bedankt sich der Redner für das wachsende Interesse an diesem Bereich und würdigt die bedeutenden Auswirkungen, die er im Laufe der Jahre hatte. Sie stellen Nitesh, den Mitbegründer von IH und Quant Institute, als Redner der Sitzung vor. Es wird beschrieben, dass Nitesh über umfassende Erfahrung auf den Finanzmärkten verfügt und einen Überblick über algorithmischen Handel, Trends und Möglichkeiten insbesondere für Anfänger bietet. Der Redner hebt aktuelle Nachrichtenartikel hervor, die die zunehmende Beliebtheit des algorithmischen Handels und seine prognostizierte Wachstumsrate von über 10 % CAGR weltweit in den nächsten fünf Jahren belegen.
Der Redner geht auf das Wachstum und die Chancen des algorithmischen Handels ein und betont dessen schnelle Expansion mit zweistelligen Prozentzahlen weltweit. Sie präsentieren Daten verschiedener Börsen und veranschaulichen die zunehmenden Volumina des algorithmischen Handels auf den Aktien- und Rohstoffmärkten. Um den algorithmischen Handel zu definieren, erklären sie ihn als den Prozess, bei dem mithilfe von Computern, die mit einem definierten Satz von Anweisungen programmiert sind, Handelsaufträge mit hoher Geschwindigkeit und Häufigkeit erteilt werden, mit dem Ziel, Gewinne zu erzielen. Die entscheidende Rolle der Technologie im algorithmischen Handel wird betont, insbesondere im Hochfrequenzhandel, wo sie einen erheblichen Teil (bis zu 60–70 %) der Rentabilität einer Handelsstrategie ausmacht.
Anschließend geht der Redner auf die Schlüsselaspekte des algorithmischen Handels ein und erörtert Technologie, Infrastruktur und Strategie. Sie unterstreichen die herausragende Rolle der Technologie in der heutigen algorithmischen Handelswelt, wobei Technokraten und technologieorientierte Händler die Führung übernehmen. Die Infrastruktur wird als entscheidender Faktor identifiziert, der die Erfolgswahrscheinlichkeit eines Händlers bestimmt, wobei die Bedeutung der Art der verwendeten Infrastruktur hervorgehoben wird. Abschließend erklärt der Redner, dass die Handelsstrategie selbst letztendlich über Rentabilität und Erfolg entscheidet und 30–70 % der Gesamterfolgswahrscheinlichkeit eines Händlers ausmacht. Sie beschreiben die verschiedenen Phasen der Strategieentwicklung, einschließlich Ideenfindung, Modellierung, Optimierung und Umsetzung.
Der Referent beschreibt die Phasen des algorithmischen Handels wie Optimierung, Test und Ausführung. Sie betonen, wie wichtig es ist, die Eingabevariablen eines Handelsmodells zu optimieren, um eine konsistente Ausgabe sicherzustellen, bevor mit der Ausführung fortgefahren wird. Darüber hinaus warnt der Redner bei der Automatisierung der Ausführung vor potenziellen Risiken und betont die Notwendigkeit eines robusten Risikomanagementsystems, um die Sicherheit zu gewährleisten und betriebliche Risiken zu verhindern. Sie erwähnen, dass Quotes auf dem Bein statistisch gesehen zu großen Gewinnen und höheren Renditen pro Trade führen.
Die mit dem algorithmischen Handel verbundenen Risiken werden diskutiert, einschließlich der Möglichkeit erheblicher Verluste, und die Bedeutung des operationellen Risikomanagements wird hervorgehoben. Der Redner hebt auch die für den algorithmischen Handel erforderliche Infrastruktur hervor, wie zum Beispiel Hochgeschwindigkeitsleitungen und Kollokationen, die eine schnellere Ausführung ermöglichen. Es werden die praktischen Schritte zur Einrichtung eines algorithmischen Handelsschalters erläutert, angefangen beim Marktzugang über den Erwerb einer Mitgliedschaft bis hin zur Eröffnung eines Kontos bei einem Broker. Der Redner erwähnt, dass die Lizenzanforderungen je nach Regulierungsbehörde variieren können. Die Wahl der richtigen algorithmischen Handelsplattform ist entscheidend und hängt von der konkreten umzusetzenden Strategie ab.
Der Referent geht auf algorithmische Handelsplattformen und deren Auswahl je nach Strategietyp ein. Für Low-Frequency-Trading-Strategien stellen Broker oft kostenlose, webbasierte Plattformen zur Verfügung, die den automatisierten Handel mithilfe von API-Code in verschiedenen Programmiersprachen ermöglichen. Für eine höhere Latenzempfindlichkeit können einsetzbare Plattformen zum Preis von einigen hundert Dollar pro Monat genutzt werden. Der Referent betont außerdem, dass die Art der eingesetzten Infrastruktur von der Strategie abhängt, wobei hochfrequente Daten und Analysen erstklassige Leistungsserver erfordern.
Der Referent geht auf die verschiedenen Zugangsarten und Infrastrukturen ein, die für den algorithmischen Handel erforderlich sind, und berücksichtigt dabei verschiedene Vorschriften und Technologien. Sie erklären das Konzept des Co-Location- und Proximity-Hostings und heben Faktoren wie Latenz, Order-Routing-Linien und Marktdaten hervor. Die Bedeutung einer robusten Datenbank und Analyse für die Strategieoptimierung wird betont, insbesondere beim Umgang mit großen Mengen an Tick-by-Tick-Daten. Es werden die Kosten für den Zugriff auf diese Tools und der Umfang der Datennutzung untersucht, der für verschiedene Handelsstrategien erforderlich ist.
Der Referent erklärt, dass der algorithmische Handel für die Datenverarbeitung und Modellbildung ausgefeiltere Tools als Excel wie R oder Matlab erfordert. Sie erwähnen auch die erhöhten Compliance- und Audit-Anforderungen, die mit der Automatisierung einhergehen, einem globalen Trend. Händlern wird empfohlen, sicherzustellen, dass ihre Transaktionen überprüfbar sind, ihre Codes und Strategien angemessen vor Grenzfällen oder außer Kontrolle geratenen Fällen geschützt sind und über einen Etikette-Schutz verfügen. Es wird außerdem empfohlen, ein Team mit grundlegenden Kenntnissen in den Bereichen Analytik, Technologie und Finanzmärkte zu haben, wobei mindestens ein Teammitglied auf alle drei Bereiche spezialisiert ist. Dies wird mit dem herkömmlichen Erfolgsrezept für den Handel verglichen, das Fähigkeiten wie Zahlenverarbeitung, Mustererkennung, Tippgeschwindigkeit, Verständnis der Finanzmärkte und Disziplin erforderte.
Der Referent erläutert das Erfolgsrezept für quantitativen Handel mittels algorithmischem Handel. Sie betonen die Notwendigkeit eines ausgeprägten mathematischen und statistischen Verständnisses sowie Kenntnisse in der Finanzinformatik. Das Verständnis von Technologie und Marktstruktur ist von entscheidender Bedeutung, ebenso wie ein umfassendes Verständnis dafür, wie Hardwarefunktionen und Netzwerke eine Rolle für den Handelserfolg spielen. Ein Verständnis der Finanzmärkte ist ebenfalls unerlässlich, und das Wissen, wie man eine Strategie programmiert und modelliert, ist ein zusätzlicher Vorteil. Für diejenigen, die Geschäfte mit höherer Frequenz einrichten, sind alle diese Elemente von entscheidender Bedeutung. Der Redner unterstreicht die Bedeutung von EPAT für Einzelpersonen, die in die Handelswelt einsteigen, insbesondere da vielen Personen im Finanzbereich das notwendige Technologieverständnis für den Erfolg fehlt.
Der Redner spricht über die Beseitigung des mangelnden technologischen Verständnisses der für den Handel erforderlichen quantitativen Analysetools. Sie erwähnen die Schaffung des ePACT (Executive Program in Algorithmic Trading) für Berufstätige, die Fachwissen im algorithmischen Handel erwerben möchten. Das ePACT-Programm ist ein sechsmonatiges integriertes Online-Programm, das Wochenendkurse für vier bis viereinhalb Monate umfasst, gefolgt von weiteren eineinhalb bis zwei Monaten Projektarbeit. Die Projektarbeit ermöglicht den Teilnehmern eine Spezialisierung auf das von ihnen gewählte Fachgebiet. Das Programm besteht aus neun verschiedenen Modulen, die von Branchenpraktikern unterrichtet werden, um sicherzustellen, dass der behandelte Stoff mit den Bedürfnissen und Trends der Branche übereinstimmt.
Die verschiedenen Module des ePACT-Programms werden besprochen, beginnend mit einer Einführung in den Finanzmarkt, grundlegende Statistiken, Derivate und Risiko, fortgeschrittene Statistiken und quantitative Handelsstrategie. Das Modul „Quantitative Handelsstrategie“ deckt verschiedene Handelsstrategien ab und umfasst auch Themen rund um den Aufbau eines algorithmischen Handelsschalters und die Berücksichtigung der damit verbundenen Geschäftsaspekte. Das Programm umfasst auch die Implementierung algorithmischer Handelsplattformen mit Python und bietet Unterricht in den Grundlagen von Python und der Implementierung von Handelsstrategien auf verschiedenen Plattformen. Den Teilnehmern wird ein Mentor zugewiesen, der ihre Projektarbeit überwacht und als Spezialisierung innerhalb des von ihnen gewählten Bereichs fungiert.
Der Referent erörtert die Unterstützungsleistungen, die das Career-Services-Team Teilnehmern und Alumni des algorithmischen Handelsprogramms bietet. Sie unterstreichen die Bedeutung von Learning by Doing, Live-Vorlesungen und dem Zugang zu aufgezeichneten Vorlesungen. Der Referent stellt eine Grafik vor, die die Branchenanforderungen und die Profile zeigt, nach denen Unternehmen bei Bewerbern suchen, um sicherzustellen, dass das Programm relevante Themen abdeckt. Sie erwähnen, dass das Programm Branchenführer als Dozenten aus verschiedenen Ländern hat und dass ihre Absolventen in über 30 Ländern weltweit ansässig sind. Hervorgehoben werden auch die verschiedenen Veranstaltungen und Programme des Instituts zur Sensibilisierung für den algorithmischen Handel.
Anschließend beantwortet der Redner verschiedene Fragen der Zuschauer zum algorithmischen Handel. Sie bestätigen, dass US-Bürger Handelskonten in Indien eröffnen können, sich jedoch an eine Depotbank wenden und einem bestimmten Verfahren folgen müssen, um ein Konto bei einem Clearing-Broker zu eröffnen. Der Redner empfiehlt Bücher von Dr. Ap Chan und Larry Harris für diejenigen, die daran interessiert sind, einen algorithmischen Trading Desk einzurichten oder mit Algo Trading zu beginnen. Sie erwähnen auch mehrere in Indien verfügbare Plattformen für den algorithmischen Handel, darunter Symphony Fintech, Automated Trading und YouTrade. Echte technische Daten können entweder direkt von der Börse oder über den eigenen Broker eingeholt werden. Darüber hinaus bestätigen sie, dass die Studierenden dieselbe Strategie, die sie im Kurs entwickelt haben, auf den Live-Handel anwenden können.
Der Referent beantwortet weiterhin verschiedene Fragen der Zuschauer zum algorithmischen Handel. Sie erklären, dass das Codieren und Backtesten einer Strategie mit verschiedenen Tools möglich und nicht schwer auf den Live-Handel zu übertragen ist. Auch Fragen zu Vorschriften, Compliance und Lizenzierung für den Handel auf dem indischen Markt werden beantwortet. Der Referent erklärt, dass für geeignete automatisierte Handelsstrategien eine Genehmigung der Börse erforderlich ist und eine Demo erforderlich ist. Sie diskutieren auch beliebte Handelsstrategien, wie z. B. momentumbasierte, statistische Arbitrage- und maschinelle Lernstrategien.
Der Referent erörtert die im Kurs behandelten Arten von Handelsstrategien und betont, wie wichtig es ist, zu lernen, wie man neue Strategien entwickelt, testet und umsetzt. Sie beantworten Fragen zu den Berufsaussichten für Kursabsolventen, den angebotenen Durchschnittsgehältern und den Programmierkenntnissen, die für die Analyse von Candlestick-Mustern erforderlich sind. Bedenken hinsichtlich des Wissensstands und des Zeitaufwands für Berufstätige, die den Kurs absolvieren, sowie der Kosten, die mit der Einrichtung eines algorithmischen Handelsschalters in Indien verbunden sind, werden ebenfalls angesprochen. Der Redner betont, wie wichtig es ist, vor Beginn des Programms ein grundlegendes Verständnis der Schlüsselkonzepte zu haben, um seinen Wert zu maximieren.
Der Referent beantwortet verschiedene Fragen im Zusammenhang mit dem algorithmischen Handel und schlägt vor, dass Personen mit begrenzten Kenntnissen der Aktienmärkte sich an einen Vertriebsspezialisten wenden können, um Hilfe zu erhalten, um ein grundlegendes Verständnis dieser Bereiche zu erlangen, bevor sie mit dem Kurs fortfahren. Sie erklären, dass algorithmischer Handel für einzelne Händler nützlich ist, die Disziplin bei ihren Geschäften gewährleisten und ihre Strategien auf die Einbeziehung mehrerer Instrumente ausweiten möchten. Der Redner geht auch auf Bedenken hinsichtlich des Übergangs von einem Kurs zum anderen und auf Broker in Indien ein, die Algo-Handelsdienste anbieten. Abschließend erklären sie, dass die Server-Colocation an einer Börse algorithmischen Händlern keinen unangemessenen Vorteil verschafft, sondern Einzelhändlern durch die Bereitstellung engerer Geld-Brief-Spannen zugute kommt.
Der Redner erörtert die Vorteile des algorithmischen Handels für Einzelhändler und wie Technologie dazu beitragen kann, Verluste zu minimieren. Sie befassen sich mit Fragen dazu, wie Nicht-Programmierer Python für den algorithmischen Handel lernen und ob indische Einwohner auf globalen Märkten handeln können. Sie stellen klar, dass sich ihr Unternehmen in erster Linie auf Bildung konzentriert und nicht auf die Bereitstellung von Brokerage- oder algorithmischen Handelsplattformen. Der Redner betont, dass sein Programm Hunderten von Teilnehmern aus über 30 Ländern geholfen hat, und ermutigt interessierte Personen, sich für weitere Informationen an ihre Geschäftsentwicklungs- und Vertriebsteams zu wenden.
Der Redner geht auf mehrere Fragen der Zuschauer ein, darunter, ob alle Strategien von der Börse genehmigt werden müssen und wie eine Strategie geschützt werden kann. Sie erklären, dass Algorithmenanbieter die Strategie eines Händlers nicht sehen können und Börsen in erster Linie darauf bedacht sind, sicherzustellen, dass Strategien keine Marktverwüstung verursachen. Sie erwähnen einen Studentenrabatt für das Programm und diskutieren die Verfügbarkeit des Algo-Handels auf den Rohstoffmärkten in Indien. Darüber hinaus heben sie die Bedeutung der linearen Algebra und der Wahrscheinlichkeitsverteilung in HFT-Profilen je nach Rolle hervor und betonen, dass Algo-Trading weltweit auf jedes Handelsinstrument, einschließlich Optionen und Forex, angewendet werden kann.
Die Referenten diskutieren Codierungsstrategien, die Bereitstellung von wiederverwendbarem Code und die Notwendigkeit, Python und R zu lernen. Sie beantworten auch Fragen zur Validierung von Strategien, zum potenziellen ROI und zur notwendigen Infrastruktur für eine moderate Anzahl von Händlern. Die Redner warnen davor, Strategien mit anderen zu teilen, und schlagen vor, sich auf das Erlernen von Best Practices und die Entwicklung einzigartiger Handelsstrategieideen zu konzentrieren.
Die Referenten beantworten verschiedene Fragen zum algorithmischen Handel, darunter den idealen Zeitrahmen für das Backtesting einer Strategie, die minimale Internetbandbreite, die für den Handel mit mittlerem Volumen erforderlich ist, und wie man die Beschaffung von Brokerage umgehen kann. Sie diskutieren auch die besten Anbieter für algorithmischen Handel in Indien und ob diskretionäre Handelsstrategien wie die Elliot-Wellen-Theorie programmiert werden können. Die Referenten weisen darauf hin, dass jede Strategie codiert werden kann, wenn man mit der Programmierung vertraut ist und klare Regeln im Kopf hat. Sie raten Händlern, Anbieter auf der Grundlage ihrer individuellen Anforderungen und der Vor- und Nachteile jedes Anbieters auszuwählen.
Abschließend bedankt sich der Referent bei den Anwesenden und bietet weitere Hilfe an. Obwohl sie aus Zeitgründen nicht alle Fragen beantworten konnten, ermutigt der Redner das Publikum, seine Anfragen einzusenden, und stellt Kontaktinformationen für das Team des Quant Institute bereit. Sie drücken ihre Wertschätzung für das Interesse am algorithmischen Handel aus und betonen die Bedeutung kontinuierlichen Lernens und Übens in diesem Bereich.
Auswirkungen des Brexit und der jüngsten Marktereignisse auf den algorithmischen Handel – 19. Juli 2016
Auswirkungen des Brexit und der jüngsten Marktereignisse auf den algorithmischen Handel – 19. Juli 2016
Nitesh Khandelwal bringt umfangreiche Erfahrung auf den Finanzmärkten mit, da er in verschiedenen Anlageklassen in unterschiedlichen Rollen gearbeitet hat. Er ist Mitbegründer von iRageCapital Advisory Private Limited, einem renommierten Unternehmen, das sich auf die Bereitstellung von Technologie- und Strategiedienstleistungen für den algorithmischen Handel in Indien spezialisiert hat. Nitesh spielte eine entscheidende Rolle bei der Förderung der Geschäftsaspekte von iRageCapital und QuantInsti. Bei QuantInsti fungierte er außerdem als Leiter der Schulungsabteilung für Derivate und marktübergreifende Studien. Derzeit ist er Direktor bei iRage Global Advisory Services Pte Ltd in Singapur. Nitesh verfügt über einen Hintergrund im Bank-Treasury mit Fachkenntnissen in den Bereichen Devisen und Zinssätze sowie Erfahrung in Eigenhandelsabteilungen. Er hat einen Bachelor-Abschluss in Elektrotechnik vom IIT Kanpur und einen Postgraduiertenabschluss in Management vom IIM Lucknow.
Jüngste globale Ereignisse wie der Brexit und die daraus resultierende Volatilität am Devisenmarkt haben bei den Anlegern große Besorgnis hervorgerufen. Es ist normal, dass die Risikoaversion nach solchen Ereignissen zunimmt, da die Marktteilnehmer bei ihren Handelsaktivitäten Vorsicht walten lassen. Doch selbst in solch turbulenten Zeiten gedeihen automatisierte Händler. Medienberichte deuten darauf hin, dass Hedgefonds, die algorithmischen Handel einsetzen, manuelle Händler durchweg übertreffen, insbesondere unter schwierigen Marktbedingungen.
Inhalte der informativen Sitzung:
Analyse der größten Handelsereignisse der Saison
Voraussetzungen, um ein Quant-/Algo-Händler zu werden
Quantitativer Handel mit Sentiment-Analyse | Von Rajib Ranjan Borah
Quantitativer Handel mit Sentiment-Analyse | Von Rajib Ranjan Borah
Stimmungsanalyse. Auch als Opinion Mining bekannt, handelt es sich um den Prozess der rechnerischen Identifizierung und Kategorisierung der in einem Text geäußerten Meinungen, insbesondere um festzustellen, ob die Einstellung des Autors zu einem bestimmten Thema, Produkt usw. positiv, negativ oder neutral ist.
Informationsveranstaltung zum algorithmischen Handel von Nitesh Khandelwal – 24. Mai 2016
Informationsveranstaltung zum algorithmischen Handel von Nitesh Khandelwal – 24. Mai 2016
Sitzungsinhalte:
Nutzung künstlicher Intelligenz zur Entwicklung algorithmischer Handelsstrategien
Nutzung künstlicher Intelligenz zur Entwicklung algorithmischer Handelsstrategien
Der CEO und Mitbegründer eines Unternehmens zur Entwicklung von Handelsstrategien erklärt das spannende Potenzial von KI und maschinellem Lernen im Algorithmenhandel. Diese Tools haben sich bei großen quantitativen Hedgefonds als erfolgreich erwiesen und ihre Zugänglichkeit hat sich dank Open-Source-Bibliotheken und benutzerfreundlichen Tools, die keine ausgeprägten Mathematik- oder Informatikkenntnisse erfordern, erheblich verbessert. Der Referent stellt außerdem Schlüsselbegriffe rund um KI und maschinelles Lernen im Kontext des algorithmischen Handels vor. Unter künstlicher Intelligenz versteht man die Untersuchung intelligenter Agenten, die ihre Umgebung wahrnehmen und Maßnahmen ergreifen, um den Erfolg zu maximieren. Maschinelles Lernen, eine Teilmenge der KI, konzentriert sich auf Algorithmen, die ohne explizite Programmierung lernen und Vorhersagen treffen können. Bei der Mustererkennung, einem Zweig des maschinellen Lernens, geht es darum, Muster in Daten aufzudecken, während beim Lernen von Assoziationsregeln die Bildung von Wenn-Dann-Aussagen auf der Grundlage dieser Muster erfolgt. Der Redner geht kurz auf das Konzept von Big Data ein, das durch seine vier Vs gekennzeichnet ist: Volumen, Geschwindigkeit, Vielfalt und Wahrhaftigkeit.
Der Referent skizziert die zu diskutierenden Begriffe und Konzepte, darunter Big Data, Wahrhaftigkeit, künstliche Intelligenz, maschinelles Lernen, Mustererkennung und Data Mining. Anschließend befassen sie sich mit Best Practices und häufigen Fallstricken bei der Entwicklung algorithmischer Handelsstrategien. Dazu gehört die Definition konkreter Erfolgsziele, die Bevorzugung von Einfachheit vor Komplexität, die Konzentration auf die Schaffung eines robusten Prozesses und Arbeitsablaufs, anstatt sich auf ein einziges Modell zu verlassen, und die Aufrechterhaltung einer gesunden Skepsis während des gesamten Prozesses, um verzerrte Ergebnisse zu vermeiden.
Anschließend erörtert der Redner, wie maschinelles Lernen die Herausforderung der Auswahl von Indikatoren und Datensätzen für die Entwicklung von Handelsstrategien bewältigen kann. Entscheidungsbäume und Zufallswälder werden als Techniken eingeführt, um wichtige Indikatoren durch die Suche nach den besten Datenaufteilungen zu identifizieren. Zufällige Wälder gelten als robuster und leistungsfähiger als Entscheidungsbäume, wenn auch komplexer. Der Redner untersucht auch, wie die Kombination von Indikatorsätzen mithilfe einer Technik namens „Wrapper“ zu einer leistungsfähigeren Kombination führen kann.
Als nächstes erörtert der Redner die Verwendung technischer Indikatoren in algorithmischen Handelsstrategien und ihre Vorteile bei der Identifizierung zugrunde liegender Muster und Trends. Es wird die Frage nach der Optimierung von Indikatorparametern auf Basis von maschinellem Lernen aufgeworfen und das Konzept des Ensemble-Lernens vorgestellt, das mehrere Klassifikatoren kombiniert, um Daten zu analysieren und unterschiedliche Muster und Informationen aufzudecken. Der Unterschied zwischen Merkmalsauswahl und Merkmalsextraktion beim maschinellen Lernen wird ebenfalls erwähnt und daran erinnert, bei der Verwendung mehrerer Klassifikatoren auf die Kurvenanpassung zu achten.
Die Referenten demonstrieren die Kombination von Mustererkennung und Lernen von Assoziationsregeln als eine Möglichkeit, maschinelle Lernalgorithmen zu nutzen und gleichzeitig die Interpretierbarkeit für Handelsstrategien beizubehalten. Sie liefern ein Beispiel, bei dem eine Support-Vektor-Maschine verwendet wird, um die Beziehung zwischen einem RSI mit drei Perioden und der Preisdifferenz zwischen dem Eröffnungspreis und einem SMA mit 50 Perioden beim australischen USD zu analysieren. Klare Muster werden in Handelsregeln übersetzt. Sie erkennen jedoch die Einschränkungen dieser Methode an, wie z. B. die Analyse hochdimensionaler Daten, Herausforderungen bei der Automatisierung und die Interpretation der Ausgabe. Der Redner stellt Trade als mögliche Lösung vor, um diese Bedenken auszuräumen und es Händlern zu ermöglichen, Algorithmen mit beliebigen Indikatoren zu nutzen.
Anschließend demonstriert der Moderator, wie man mithilfe einer cloudbasierten Handelsplattform Handelsstrategien entwickelt. Sie verwenden das Beispiel der Entwicklung einer Strategie für den Handel mit dem australischen USD auf einem Tages-Chart unter Verwendung von Daten aus fünf Jahren. Um eine Kurvenanpassung zu vermeiden, wird der Algorithmus nur bis zum 1. Januar 2015 trainiert, sodass ein Jahr mit Out-of-Sample-Daten zum Testen übrig bleibt. Es wird betont, wie wichtig es ist, diese Out-of-Sample-Daten nicht zu verschwenden, um ein voreingenommenes Backtesting zu vermeiden. Der Einsatz maschineller Lernalgorithmen zur Indikatoranalyse und Mustererkennung wird als flexibler und leistungsstarker Ansatz zur Optimierung von Handelsstrategien dargestellt.
Anschließend demonstriert der Moderator den Prozess der Erstellung einer Handelsstrategie mithilfe der Plattform von Trade-Ideas und der Open-Source-Indikatorbibliothek TA Lib. Sie analysieren die Preisbewegung des australischen USD über einen Zeitraum von fünf Jahren, identifizieren Bereiche mit starken Signalen und verfeinern die Regeln für Long-Positionen, indem sie Indikatorbereiche auswählen und ihre Beziehungen notieren. Indem sie eine Regel für den Preis relativ zu einem 50-Perioden-SMA hinzufügen, identifizieren sie zwei verschiedene Bereiche mit starken Signalen. Der Vorteil der Verwendung von Trade-Ideas wird hervorgehoben, da es die Analyse der Ergebnisse von maschinellen Lernalgorithmen und die Erstellung von Regeln direkt aus Histogrammen für eine klarere Interpretation ermöglicht.
Der Moderator erläutert das Verfahren zum Erstellen von Short-Regeln für eine Handelsstrategie, einschließlich der Auswahl der richtigen Indikatoren und der Verfeinerung der Regeln, um starke Short-Signale zu finden. Der Schwerpunkt liegt auf dem Testen und Erkunden verschiedener Muster mit den Indikatoren, um die optimale Strategie zu finden. Außerdem wird die Codegenerierung und das Out-of-Sample-Testen der Strategie in MetaTrader4 unter Einbeziehung der Transaktionskosten demonstriert. Der Referent bestätigt, dass der Ansatz mit dem algorithmischen Handel zusammenhängt.
Der Referent erklärt, wie man die Strategie testet, die auf den neuesten Out-of-Sample-Daten basiert, die während des Strategieentwicklungsprozesses nicht verwendet wurden. Die Simulation wird mit MetaTrader durchgeführt, einer beliebten Handelsplattform für Währungen und Aktien. Die aktive Entwicklergemeinschaft der Plattform erstellt automatisierte Strategien und benutzerdefinierte Indikatoren und bietet eine hervorragende Möglichkeit zum Testen und Handeln mit denselben Daten. Der Schwerpunkt der Simulation liegt auf der Bewertung der Leistung der Strategie anhand von Out-of-Sample-Daten. Der Redner erwähnt, dass das Tool von einem Startup entwickelt wurde, das plant, es kostenlos zur Verfügung zu stellen, indem es direkt an Maklerunternehmen weitergeleitet wird.
Der Redner befasst sich mit der Einbindung von Risiko- und Geldmanagementtechniken in eine Strategie nach dem Backtesting. Einfache Take-Profit- und Stop-Loss-Maßnahmen werden als Möglichkeiten diskutiert, Drawdowns zu verringern und sich vor Abwärtsrisiken zu schützen. Um einer Kurvenanpassung vorzubeugen, betont der Redner die Verwendung einer breiten Bin-Auswahl, Tests außerhalb der Stichprobe und Demokonten vor der Live-Schaltung. Die Bevorzugung von Einfachheit und Transparenz gegenüber Black-Box-Neuronalen Netzen bei Handelsstrategien wird ebenfalls erwähnt.
Während der Präsentation geht der Redner auf Fragen zum Vergleich seiner Plattform mit anderen wie Quanto Pian oder Quanto Connect ein und betont, dass sich seine Plattform mehr auf die Strategiefindung und -analyse als auf die Automatisierung bestehender Strategien konzentriert. Die Bedeutung technischer Daten in automatisierten Strategien wird anerkannt, gleichzeitig wird darauf hingewiesen, dass die Plattform auch andere Datensätze umfasst, beispielsweise Stimmungsindikatoren. MetaTrader 4 wird als nützliches Werkzeug demonstriert und die Bedeutung von Risiko- und Geldmanagementstrategien im Handel wird diskutiert. Der Referent geht außerdem auf Best Practices und häufige Fallstricke bei automatisierten Handelsstrategien ein.
Der Redner erörtert den Einsatz von Indikatoren in Handelsstrategien und betont den Kompromiss zwischen Komplexität und Überanpassung. Sie empfehlen die Verwendung von drei bis fünf Indikatoren pro Strategie, um ein Gleichgewicht zwischen der Bereitstellung ausreichender Informationen und der Vermeidung einer Überanpassung zu finden. Die Bedeutung der in den Algorithmus eingespeisten Daten oder Funktionen und die Art und Weise, wie die Ausgabe implementiert wird, werden hervorgehoben. Der zugrunde liegende Algorithmus wird als weniger entscheidend angesehen als die verwendeten Indikatoren und deren Implementierung. Es werden auch Fragen zur Verwendung des genetischen Optimierers in MetaTrader 4 und zur Bedeutung der Ausrichtung von Indikatoren auf die Plattform beantwortet.
Der Redner untersucht die Anwendung von maschinellem Lernen beim Value Investing. Der gleiche Prozess, der zuvor für den algorithmischen Handel besprochen wurde, kann auf Value Investing angewendet werden, allerdings werden anstelle technischer Indikatoren Datensätze verwendet, die den inhärenten Wert eines Unternehmens quantifizieren. Beispielsweise können die Marktkapitalisierung oder das Kurs-Gewinn-Verhältnis den Zusammenhang zwischen diesen Daten und der Preisbewegung des Vermögenswerts aufzeigen. Darüber hinaus werden die Optimierung der Rendite pro Trade und die Erkennung, wann ein Algorithmus nicht mit dem Markt synchron ist, besprochen. Als geeignete Programmiersprachen werden je nach Programmiererfahrung und Hintergrund Python und R empfohlen.
Abschließend hebt der Redner die wesentlichen Fähigkeiten und Kenntnisse hervor, die für den algorithmischen Handel erforderlich sind, bei dem es um die Verschmelzung von Finanzen und Technologie geht. Das Verständnis der Märkte, Big-Data-Statistiken und Technologien zur Automatisierung von Strategien sind von entscheidender Bedeutung. Quantitative Bildungsprogramme werden als Mittel zum Erwerb der notwendigen Ausbildung in verschiedenen Abläufen und Fähigkeiten vorgeschlagen, um ein erfolgreicher algorithmischer Händler zu werden. Python wird als großartige Option zum Erstellen von Algorithmen empfohlen.