Quantitativer Handel - Seite 9

 

Von der Idee zum Algorithmus: Der vollständige Arbeitsablauf hinter der Entwicklung einer quantitativen Handelsstrategie



Von der Idee zum Algorithmus: Der vollständige Arbeitsablauf hinter der Entwicklung einer quantitativen Handelsstrategie

In diesem umfassenden Video bietet Delaney Mackenzie einen detaillierten Überblick über den Arbeitsablauf, den Quant-Trader bei der Entwicklung einer Handelsstrategie befolgen. Der Redner betont die entscheidende Rolle, mit einer Hypothese zu beginnen und historische Daten zu nutzen, um fundierte Vorhersagen über die Zukunft zu treffen. Der Prozess beinhaltet die kontinuierliche Verfeinerung und Erforschung eines Handelsmodells, um seine historische Korrelation mit zukünftigen Erträgen sicherzustellen und gleichzeitig die Unabhängigkeit von anderen Modellen zu wahren.

Eines der Hauptziele besteht darin, ein Portfolio zu entwerfen, das die erwarteten Renditen maximiert und gleichzeitig verschiedene Risikobeschränkungen einhält. Um dies zu erreichen, betont der Redner, wie wichtig es ist, das Modell mit einem kleinen Kapitalbetrag zu testen, bevor es live eingesetzt und skaliert wird. Darüber hinaus wird dringend empfohlen, alternative Datenquellen einzubeziehen und Risikomanagementtechniken einzusetzen.

Das Video befasst sich mit den beiden Phasen des Backtestings bei der Entwicklung von Handelsstrategien. Erstens das Entwerfen eines Portfolios und das Festlegen von Ausführungsregeln, und zweitens die Implementierung des Backtesting-Prozesses selbst. Der Redner unterstreicht die Bedeutung des Aufbaus eines risikobeschränkten Portfolios, das die Integrität der Modellvorhersagen wahrt, und empfiehlt, nur dann mit der nächsten Stufe fortzufahren, wenn das Modell dauerhaft alternative Anlagemöglichkeiten übertrifft. Darüber hinaus regt der Redner dazu an, neue Möglichkeiten zu erkunden, anstatt sich auf überarbeitete Versionen bestehender Modelle zu verlassen.

Delaney Mackenzie erklärt die Anfangsphase der Entwicklung einer Handelsstrategie, bei der es darum geht, eine wirtschaftliche Hypothese zu formulieren, die als Leitfaden für die Auswahl und den Zeitpunkt der Anlage dient. Ziel der Finanzbranche ist es, Ideen in profitable Ergebnisse umzuwandeln, indem die Zukunft auf der Grundlage von Hypothesen intelligent vorhergesagt wird. Jede im Handel getroffene Entscheidung stellt im Wesentlichen eine Wette auf zukünftige Marktveränderungen dar, was die entscheidende Rolle der Nutzung vergangener Informationen für intelligente Vorhersagen unterstreicht.

Der Referent gibt Einblicke in den Arbeitsablauf bei der Entwicklung einer quantitativen Handelsstrategie. Der Prozess beginnt mit der Formulierung einer Hypothese und deren Untersuchung anhand von Beispieldaten. Der Vergleich der Hypothese mit bestehenden Modellen ist für die Verfeinerung unerlässlich. Sobald das neue Modell seinen Wert unter Beweis stellt, empfiehlt es sich, es mit anderen Untermodellen zu kombinieren, um die Vorhersagekraft zu verbessern. Der Redner betont, dass Hypothesen und Modelle nicht isoliert existieren und ein aggregiertes Modell, das mehrere Informationsquellen einbezieht, tendenziell eine bessere Leistung erbringt. Darüber hinaus ist es wichtig, das Modell anhand neuer Daten zu testen, um seine Gültigkeit sicherzustellen.

Der Redner betont, wie wichtig es ist, ein Modell anhand unsichtbarer Daten zu testen, um eine Überanpassung während der Entwicklungsphase zu vermeiden. Sie weisen darauf hin, dass Backtesting einer vollständigen Strategie zwar häufig eingesetzt wird, es jedoch wichtig ist, anzuerkennen, dass die meiste Zeit für die Entwicklung von Modellen und Prädiktoren aufgewendet wird und nicht für den Aufbau von Portfolios. Daher unterstreicht der Redner die Bedeutung der Portfoliokonstruktion und -ausführung, einschließlich Faktoren wie Transaktionsgebühren, bevor ein Backtesting durchgeführt wird, um die Rentabilität des Portfolios unter realen Marktbedingungen sicherzustellen. Darüber hinaus betont der Redner, dass der Zweck des Backtestings nicht nur darin besteht, die Vorhersageleistung des Modells zu bewerten, sondern auch zu beurteilen, ob das auf Basis der Modellvorhersagen entworfene Portfolio den realen Bedingungen standhalten kann. Abschließend betont der Redner, wie wichtig es ist, das Modell vor der Skalierung mit einem kleinen Kapitalbetrag zu testen, um einen effektiven Kapitaleinsatz sicherzustellen.

Der Referent diskutiert die Verfeinerung und Untersuchung eines Handelsmodells, um seine historische Korrelation mit zukünftigen Renditen und die Unabhängigkeit von anderen Modellen festzustellen. Anschließend erfolgt der Aufbau eines Portfolios innerhalb der definierten Risikobeschränkungen. Der Redner betont, wie wichtig es ist, sicherzustellen, dass die Ausführung des Modells das Signal nicht verzerrt und seine Korrelation mit zukünftigen Renditen verringert. Es wird ein Notebook-Beispiel bereitgestellt, um die schrittweise Hinzufügung von Einschränkungen zu verdeutlichen und eine Bewertung der Leistung des Modells unter verschiedenen Risikobedingungen zu ermöglichen. Dieser Abschnitt unterstreicht die Bedeutung gründlicher Tests und Verfeinerungen, um die Robustheit und Wirksamkeit eines Handelsmodells bei der Erzielung von Renditen sicherzustellen.

Der Redner erklärt den Prozess der Gestaltung eines Portfolios, das die erwarteten Renditen maximiert und gleichzeitig verschiedene Risikobeschränkungen erfüllt. Zunächst wird eine naive Optimierungsstrategie angewendet, die sich auf die Maximierung der erwarteten Rendite durch die Investition des gesamten Kapitals in eine einzige Aktie konzentriert, gefolgt von der Einführung von Beschränkungen zur Begrenzung der Investitionsbeträge. Anschließend werden Positionskonzentrationsbeschränkungen hinzugefügt, die die Investition in eine Sache auf einen bestimmten Prozentsatz des Portfolios beschränken. Die Portfoliostrategie wird durch die Einbeziehung von Sektorengagementbeschränkungen weiter verfeinert. Der Redner betont, dass die Optimierung eines Portfolios unter Berücksichtigung von Risikobeschränkungen zu Komplexität führen kann, da die Gewichtungen in der endgültigen Strategie von den Vorhersagen des Modells für die Zukunft abweichen können. Es ist wichtig zu verstehen, wie Risikobeschränkungen Modellierungsvorhersagen beeinflussen und welche Auswirkungen sie auf die Portfoliokonstruktion haben.

Der Redner stellt das Konzept der Verwendung von Alpha Lines vor, einer von Quantopian entwickelten Open-Source-Software, um die Korrelation zwischen den Renditen eines Modells und zukünftigen Renditen zu bewerten. Alphalinien ermöglichen die Kodierung jedes Modells in ein Faktormodell, unabhängig von der Universumsgröße, für die es vorhersagt. Durch die Berechnung der Korrelation zwischen den Vorhersagen des Modells am Tag T und den Renditen aller Vermögenswerte, die es am Tag T+1 vorhergesagt hat, helfen Alphalinien dabei, festzustellen, ob das Modell eine durchweg positive Korrelation mit zukünftigen Renditen aufweist. Allerdings weist der Referent darauf hin, dass reale Daten möglicherweise nicht immer ideale Korrelationsmuster aufweisen.

Es wird erläutert, wie wichtig es ist, ein neues Modell mit bestehenden Modellen zu vergleichen, wobei der Schwerpunkt auf der Untersuchung der Renditen eines Portfolios liegt, das mit dem Faktor gewichtet und nach einem bestimmten Zeitraum neu gewichtet wird. Der Referent schlägt vor, eine lineare Regressionsanalyse durchzuführen und dabei die portfoliogewichteten Renditen des neuen Modells als abhängige Variable und die portfoliogewichteten Renditen bestehender Modelle als unabhängige Variablen zu verwenden. Diese Analyse hilft bei der Beurteilung der Abhängigkeit zwischen dem neuen Modell und den bestehenden Modellen und liefert Einblicke in die potenzielle Alpha-Generierung. Der Redner betont die Bedeutung von Risikomanagement und Diversifizierung, die je nach Anlagestrategie entweder dadurch erreicht werden kann, dass jede Komponente einzeln eingeschränkt wird oder der Durchschnitt mehrerer riskanter Komponenten gebildet wird, um eine Risikodiversifizierung zu erreichen.

Der Referent erklärt den Unterschied zwischen den beiden Phasen des Backtestings bei der Entwicklung von Handelsstrategien. In der ersten Phase werden ein Portfolio entworfen und Ausführungsregeln festgelegt. In der zweiten Phase wird ein Backtesting durchgeführt, um die Korrelation zwischen den Vorhersagen des Modells und zukünftigen Preisen zu bewerten. Der Aufbau eines risikobeschränkten Portfolios, das die Vorhersagen des Modells effektiv berücksichtigt, ohne ihre Integrität zu gefährden, ist von entscheidender Bedeutung. Der Redner rät Investoren, erst dann mit der nächsten Stufe fortzufahren, wenn ihre Backtests durchweg substanzielle Beweise für die Überlegenheit des Modells gegenüber alternativen Anlagemöglichkeiten liefern. Darüber hinaus warnt der Redner davor, sich auf überarbeitete Versionen bestehender Modelle zu verlassen, und fordert eine gründliche Erforschung neuer Ansätze.

Der Referent bespricht den gesamten Arbeitsablauf bei der Entwicklung einer quantitativen Handelsstrategie. Der Prozess beginnt mit der Generierung einer Idee, die aus einem Verständnis der Welt, einer Datenanalyse oder der Identifizierung von Bereichen resultieren kann, in denen das vorherrschende Verständnis unterschiedlich ist. Sobald das Modell entwickelt, getestet und verfeinert ist, wird es mit vorhandenen Modellen verglichen, um seine Einzigartigkeit und sein Potenzial zur Generierung von neuem Alpha zu bestimmen. Der nächste Schritt umfasst die Durchführung von Out-of-Sample-Tests, den Aufbau eines Portfolios und die Durchführung risikobeschränkter Optimierungssimulationen. Schließlich wird die Strategie entweder auf Papier gehandelt oder mit einem kleinen Kapitalbetrag getestet, bevor sie ausgeweitet wird. Der Redner betont, dass die ausschließliche Nutzung von Preisdaten selten ausreichende Informationen für die Generierung innovativer Ideen liefert und dass die Einbindung alternativer Datenquellen für die Gewinnung neuer Erkenntnisse von entscheidender Bedeutung ist.

Der Redner unterstreicht, wie wichtig es ist, alternative Daten zur Generierung von Alpha zu nutzen, anstatt sich aus Gründen der Geschwindigkeit und Bequemlichkeit ausschließlich auf Preise und Fundamentaldaten zu verlassen. Sie betonen auch die Notwendigkeit, zwischen Alpha und günstigem Beta zu unterscheiden, da alles, was in einem Risikomodell berücksichtigt wird, als Letzteres gilt. Die Einschränkungen der k-fachen Kreuzvalidierung bei der Reduzierung der Überanpassung werden diskutiert, wobei der Redner echte Out-of-Sample-Tests als zuverlässigeren Ansatz empfiehlt. Abschließend betont der Redner, wie wichtig es ist, Erkenntnisse über die Wahl des Datensatzes für die Vorhersage der Zukunft zu gewinnen und Ansätze zu erkunden, die sich von herkömmlichen Methoden unterscheiden.

Zusammenfassend bietet das Video von Delaney Mackenzie einen umfassenden Überblick über den Arbeitsablauf, dem Quant-Trader bei der Entwicklung einer Handelsstrategie folgen. Es betont, wie wichtig es ist, mit einer Hypothese zu beginnen, das Handelsmodell zu verfeinern und zu erkunden, es anhand neuer Daten zu testen, ein risikobeschränktes Portfolio aufzubauen und gründliche Backtests durchzuführen. Der Redner betont die Bedeutung der Nutzung alternativer Daten, des Vergleichs des Modells mit bestehenden Modellen und der Einbeziehung von Risikomanagementtechniken. Sie betonen die Notwendigkeit, sicherzustellen, dass die Vorhersagen des Modells historisch mit zukünftigen Erträgen korrelieren und von anderen Modellen unabhängig sind. Der Redner betont auch, wie wichtig es ist, das Modell mit einer kleinen Kapitalmenge zu testen, bevor es auf den realen Einsatz ausgeweitet wird.

Darüber hinaus befasst sich der Referent mit den Feinheiten der Portfoliogestaltung und den Ausführungsregeln. Sie diskutieren den Prozess des Aufbaus eines risikobeschränkten Portfolios, das die erwarteten Renditen maximiert und gleichzeitig verschiedene Risikobeschränkungen erfüllt. Der Redner hebt die schrittweise Hinzufügung von Einschränkungen wie Positionskonzentration und Sektorengagements hervor, um die Leistung des Modells unter verschiedenen Risikoszenarien zu bewerten. Sie betonen, dass es bei der Portfoliooptimierung darum geht, Kompromisse zwischen Renditemaximierung und Risikomanagement einzugehen.

Der Referent stellt das Konzept der Alpha-Linien und ihre Rolle bei der Beurteilung der Korrelation zwischen den Renditen eines Modells und zukünftigen Renditen vor. Sie erklären, wie Alphalinien die Kodierung eines beliebigen Modells in ein Faktormodell ermöglichen und so die Bewertung der Vorhersagen des Modells im Vergleich zu zukünftigen Erträgen ermöglichen. Der Redner räumt ein, dass reale Daten möglicherweise nicht immer konsistente positive Korrelationen aufweisen, was unterstreicht, wie wichtig es ist, die Grenzen der Korrelationsanalyse zu verstehen.

Der Vergleich des neuen Modells mit bestehenden Modellen wird als entscheidender Schritt zur Bewertung seiner Wirksamkeit hervorgehoben. Der Referent schlägt vor, mithilfe einer linearen Regressionsanalyse die Abhängigkeit zwischen den portfoliogewichteten Renditen des neuen Modells und denen bestehender Modelle zu beurteilen. Dieser Vergleich hilft dabei, die Einzigartigkeit des Modells und sein Potenzial zur Generierung von Alpha zu bestimmen. Der Redner betont auch die Bedeutung von Risikomanagement und Diversifizierung beim Portfolioaufbau, sei es durch die Einschränkung einzelner Komponenten oder durch die Diversifizierung des Risikos über mehrere Vermögenswerte.

Der Redner hebt außerdem die beiden Phasen des Backtestings bei der Entwicklung von Handelsstrategien hervor. In der ersten Phase werden ein Portfolio und Ausführungsregeln entworfen, während in der zweiten Phase Backtests durchgeführt werden, um die Vorhersagen des Modells anhand zukünftiger Preise zu bewerten. Es ist von entscheidender Bedeutung, ein risikobeschränktes Portfolio aufzubauen, das die Vorhersagen des Modells berücksichtigt, ohne deren Integrität zu gefährden. Der Referent rät Anlegern, erst dann mit der zweiten Stufe fortzufahren, wenn schlüssige Beweise für die Überlegenheit des Modells gegenüber alternativen Anlagemöglichkeiten vorliegen. Sie warnen davor, sich auf überarbeitete Versionen bestehender Modelle zu verlassen, und regen dazu an, neue Ansätze zu erkunden.

Abschließend skizziert der Redner den gesamten Arbeitsablauf bei der Entwicklung einer quantitativen Handelsstrategie. Es beginnt mit der Generierung einer Idee und geht weiter durch das Testen, Verfeinern und Vergleichen des Modells mit bestehenden Modellen. Anschließend wird die Strategie Out-of-Sample-Tests, Portfolioaufbau und risikobeschränkter Optimierung unterzogen. Vor der Skalierung wird die Strategie entweder auf Papier gehandelt oder mit einem kleinen Kapitalbetrag getestet. Der Redner unterstreicht die Bedeutung der Einbindung alternativer Datenquellen zur Gewinnung neuer Erkenntnisse und betont die Notwendigkeit, zwischen Alpha und günstigem Beta zu unterscheiden. Sie empfehlen echte Out-of-Sample-Tests, um eine Überanpassung abzumildern, und betonen, wie wichtig es ist, die Wahl des Datensatzes für die Vorhersage der Zukunft zu verstehen.

Zusammenfassend bietet das Video von Delaney Mackenzie ein umfassendes Verständnis des Arbeitsablaufs, den Quants bei der Entwicklung einer Handelsstrategie verfolgen. Es betont die Bedeutung der Hypothesenentwicklung, der Modellverfeinerung, des Testens neuer Daten, des Risikomanagements und eines gründlichen Backtestings. Der Redner empfiehlt die Nutzung alternativer Datenquellen, den Vergleich mit bestehenden Modellen und die Erforschung neuer Ansätze. Durch die Befolgung dieses Arbeitsablaufs können Quant-Trader die Effektivität und Robustheit ihrer Handelsstrategien verbessern.

  • 00:00:00 Delaney Mackenzie erklärt den allgemeinen Arbeitsablauf, dem ein Quant bei der Entwicklung einer Handelsstrategie folgt. Zunächst wird eine wirtschaftliche Hypothese entwickelt, die bei der Entscheidung hilft, in welchen Vermögenswert und wann investiert werden soll. Die Hypothese ist eine Vorhersage darüber, wie die Welt funktioniert, und das Ziel der Finanzwelt besteht darin, Ideen zu nutzen und sie auf der Grundlage intelligenter Zukunftsvorhersagen in Dollar umzuwandeln. Bei jeder getroffenen Entscheidung handelt es sich im Wesentlichen um eine Wette auf die Zukunft. Daher ist es wichtig, vergangene Informationen zu nutzen, um zukünftige Marktveränderungen zu verstehen und eine intelligente Wette darauf abzugeben.

  • 00:05:00 Der Referent diskutiert den Arbeitsablauf bei der Entwicklung einer quantitativen Handelsstrategie. Der erste Schritt besteht darin, eine Hypothese aufzustellen und diese anhand von Beispieldaten zu untersuchen. Der Vergleich der Hypothese mit bestehenden Modellen ist für die Verfeinerung unerlässlich. Sobald das neue Modell einen Wert hat, empfehlen Experten, es mit anderen Untermodellen zu kombinieren, um Vorhersagen zu treffen. Der Redner betont die Idee, dass Hypothesen nicht isoliert existieren und Modelle selten alleine funktionieren, sodass ein aggregiertes Modell erforderlich ist, das mehrere Informationsquellen einbezieht, um eine bessere Leistung zu erzielen. Abschließend muss das Modell anhand neuer Daten getestet werden, um seine Gültigkeit sicherzustellen.

  • 00:10:00 Der Redner erörtert, wie wichtig es ist, ein Modell anhand neuer Daten zu testen, die es zuvor noch nicht gesehen hat, um sicherzustellen, dass es nicht zu sehr an den Entwicklungszeitraum angepasst ist. Sie weisen auch darauf hin, dass das Backtesting einer vollständigen Strategie oft überstrapaziert wird, da man die meiste Zeit Modelle und Prädiktoren entwickelt und nicht mit der Portfoliokonstruktion beschäftigt ist. Der Redner betont die Bedeutung der Portfoliokonstruktion und -ausführung, einschließlich des Verständnisses der Transaktionsgebühren, bevor ein Backtesting durchgeführt wird, um sicherzustellen, dass das Portfolio den realen Marktbedingungen standhalten kann. Der Redner weist außerdem darauf hin, dass der Zweck des Backtesting nicht darin besteht, zu überprüfen, ob das Modell gute Vorhersagen macht, sondern darin, zu sehen, ob das auf der Grundlage der Vorhersagen des Modells entworfene Portfolio den realen Bedingungen standhalten kann. Abschließend betont der Redner, wie wichtig es ist, das Modell mit einer kleinen Kapitalmenge zu testen, bevor es live eingesetzt wird, und die Kapitalbeträge zu erhöhen, um tatsächlich Geld zu verdienen.

  • 00:15:00 Der Redner diskutiert den Prozess der Verfeinerung und Erforschung eines Handelsmodells, um sicherzustellen, dass es historisch mit zukünftigen Renditen korreliert und von anderen Modellen unabhängig ist. Der nächste Schritt besteht darin, dieses Modell zum Aufbau eines Portfolios zu verwenden, das innerhalb der Risikobeschränkungen liegt. Der Redner betont, wie wichtig es ist, sicherzustellen, dass die Ausführung des Modells das Signal nicht zerstört und die Korrelation mit zukünftigen Renditen verringert. Sie heben ein Notebook-Beispiel hervor, bei dem das schrittweise Hinzufügen von Einschränkungen dabei helfen kann, zu bewerten, wie ein Modell unter verschiedenen Risikobeschränkungen funktionieren kann. In diesem Abschnitt wird hervorgehoben, wie wichtig es ist, ein Handelsmodell zu testen und zu verfeinern, um sicherzustellen, dass es robust und effektiv bei der Erzielung von Renditen ist.

  • 00:20:00 Der Redner erklärt den Prozess der Gestaltung eines Portfolios, das die erwarteten Renditen maximiert, aber auch verschiedene Risikobeschränkungen erfüllt. Sie beginnen mit einer naiven Optimierungsstrategie, die die erwartete Rendite maximiert, indem sie das gesamte Geld in eine einzige Aktie investieren, und fügt die Einschränkung hinzu, dass sie nicht mehr als einen bestimmten Betrag investieren können. Dann fügen sie eine Positionskonzentrationsbeschränkung hinzu, die die Investition von mehr als 15 % bis 30 % des Portfolios in eine bestimmte Sache einschränkt. Anschließend verfeinern sie die Portfoliostrategie, indem sie das Sektorengagement einschränken. Der Redner weist darauf hin, dass bei der Optimierung eines Portfolios unter Berücksichtigung von Risikobeschränkungen die Gewichtungen in der endgültigen Strategie nicht mit den Zukunftsprognosen des Modells übereinstimmen und zu großer Komplexität führen können. Darüber hinaus betonte der Redner, dass einige Modelle den Schritt der Risikobeschränkung möglicherweise nicht überleben, was ein Verständnis des Konzepts der Modellierung von Vorhersagen und der Art und Weise erfordert, wie sie durch Risikobeschränkungen beeinflusst werden.

  • 00:25:00 Der Moderator diskutiert die Verwendung von Alpha Lines, einer von Quantopian entwickelten Open-Source-Software, um zu überprüfen, ob eine Korrelation zwischen den Renditen eines Modells und zukünftigen Renditen besteht. Der Vortragende weist darauf hin, dass jedes Modell, unabhängig von der Größe des Universums, für das es Vorhersagen trifft, leicht in einem Faktormodell kodiert werden kann. Alpha Lines prüft, ob die Vorhersage eines Modells mit zukünftigen Renditen korreliert, indem die Korrelation zwischen den Vorhersagen des Modells am Tag T und den Renditen aller Vermögenswerte, die es am Tag T+1 vorhergesagt hat, berechnet wird. Der Vortragende stellt fest, dass eine durchgängig positive Korrelation ideal ist, dies jedoch bei realen Daten nicht immer der Fall ist.

  • 00:30:00 Der Redner diskutiert die Verwendung der Alpha-Linse, um zu überprüfen, ob ein Modell irgendeine Korrelation mit Renditen in der Vergangenheit aufweist. Nachdem die Nützlichkeit des Modells für die Vorhersage zukünftiger Ergebnisse festgestellt wurde, besteht der nächste Schritt darin, es mit anderen bereits vorhandenen Modellen zu vergleichen, um die Ähnlichkeiten bei Vorhersagen und Renditen zu überprüfen. Dieser Vergleich ist wichtig, um die Einzigartigkeit des Modells und die Möglichkeit der Erstellung neuer Alpha-Modelle zu bestimmen. Der Referent erklärt, wie dieser Vergleich durchgeführt werden kann, indem mithilfe des Risikomodells überprüft wird, ob die auf dem Modell entwickelte vollständige Strategie anderen Modellen ähnelt, und wie dieser Vergleich mit der Risikoanalyse auf der Ebene der einzelnen Faktoren vereinfacht werden kann.

  • 00:35:00 In diesem Abschnitt erklärt der Referent, wie man die Wirksamkeit eines Handelsmodells bewertet. Sie empfehlen, die Renditen des Modells mit anderen bekannten Modellen zu vergleichen und risikobewusste Techniken wie das Risikomodell zu verwenden, um seine Effizienz zu überprüfen. Sie geben ein Beispiel für ein einfaches Mean-Reversion-Modell, das sie anhand der Risikoähnlichkeit mit anderen bekannten Modellen bewertet haben. Sie betonen auch, wie wichtig es ist, das Modell mit bestehenden Alpha-Modellen zu vergleichen, um Diversifizierungsvorteile und nicht Konzentrationsrisiken sicherzustellen. Abschließend diskutieren sie, wie man ein Portfolio mithilfe einer risikobewussten Portfoliooptimierung aufbaut, bei der es darum geht, die Rendite unter Einhaltung von Risikobeschränkungen zu maximieren. Der Redner empfiehlt, konkrete Beispiele zu verwenden, um die Risikopositionen jeder Aktie aufzuschlüsseln, die Risikopositionen eines Portfolios zu berechnen und festzustellen, ob ein Portfolio übermäßig riskant ist.

  • 00:40:00 Wir lernen etwas über die Risikobeschränkung, die ein entscheidender Teil des Algorithmuserstellungsprozesses ist. Con handelt nur mit einer begrenzten Anzahl von Namen, ohne Alpha zu zerstören. Daher ist es notwendig, das Risiko einzuschränken, um eine übermäßige Exposition zu verhindern. Korrelation ist wichtig, da die Vorhersage des Modells mit zukünftigen Preisen und Erträgen korreliert werden muss. Jedes Mal, wenn das Risiko eingeschränkt wird, wird es daher schwieriger, diese Korrelation aufrechtzuerhalten. Der Algorithmus am Ende des Beispielalgorithmus für Long/Short-Aktien weist Einschränkungen auf, wie etwa eine Dollar-neutrale Politik und gleiche Sektorengagements. Es ist wichtig, intelligente Randbedingungen zu berücksichtigen, die die Rendite optimieren und Risiken reduzieren.

  • 00:45:00 Der Redner bespricht den gesamten Arbeitsablauf bei der Entwicklung einer quantitativen Handelsstrategie. Der erste Schritt besteht darin, eine Idee zu entwickeln, die aus dem Verständnis der Welt, Daten oder der Suche nach einem Bereich resultieren kann, in dem die Welt nicht mit Ihrem impliziten Modell oder Verständnis übereinstimmt. Sobald das Modell getestet und verfeinert wurde, wird es mit vorhandenen Modellen verglichen, um neues Material zu ermitteln und die Gewichtung zwischen den Modellen zu bestimmen. Der nächste Schritt besteht darin, einen Out-of-Sample-Test durchzuführen, ein Portfolio zu erstellen und eine risikobeschränkte Optimierungssimulation durchzuführen. Schließlich wird die Strategie mit einem kleinen Kapitalbetrag auf Papier gehandelt oder getestet, bevor sie ausgeweitet wird. Der Redner betont, dass die alleinige Nutzung von Preisdaten fast nie genügend Informationen liefert, um neue Ideen zu generieren, und dass neue Erkenntnisse aus alternativen Quellen stammen.

  • 00:50:00 Der Redner erörtert, wie wichtig es ist, alternative Daten zur Generierung von Alpha zu verwenden, anstatt nur Preis- und Fundamentaldaten zu verwenden, da dies einfach und schnell ist. Der Redner erörtert auch die Notwendigkeit, bestehende Risikomodelle auszuklammern, da alles in einem Risikomodell als günstiges Beta und nicht als Alpha gilt. Der Redner erläutert auch die Einschränkungen der k-fachen Kreuzvalidierung bei der Reduzierung der Überanpassung und empfiehlt stattdessen die Verwendung echter Out-of-Sample-Tests. Abschließend betont der Redner, wie wichtig es ist, Erkenntnisse darüber zu haben, welcher Datensatz zur Vorhersage der Zukunft verwendet werden soll und wie dieser sich von dem unterscheiden würde, was Menschen zuvor getan haben.

  • 00:55:00 Der Referent erklärt, wie man ein neues Modell mit bestehenden Modellen vergleicht, indem man sich die Renditen eines Portfolios ansieht, das mit dem Faktor gewichtet und gemäß einer Regel für den Neugewichtungszeitraum, normalerweise einem Tag oder einem Monat, neu gewichtet wurde. Der Referent schlägt vor, eine lineare Regression mit den portfoliogewichteten Renditen Ihres Modells als Y-Variable und den portfoliogewichteten Renditen Ihrer vorhandenen Modelle als Unabhängigkeitsvariable durchzuführen. Je größer die Abhängigkeit, desto ähnlicher sind die vorhandenen Modelle Ihrem neuen Modell und erklären dessen Leistung, und desto mehr Alpha wird erzeugt. Der Redner betont auch die Bedeutung des Risikomanagements und der Diversifizierung. Dies kann je nach Anlagestrategie entweder dadurch erreicht werden, dass jede einzelne Komponente auf die Risikokontrolle beschränkt wird, oder indem mehrere riskante Komponenten genommen und deren Mittelwert berechnet wird, um das Risiko zu diversifizieren.

  • 01:00:00 Der Referent erklärt den Unterschied zwischen den beiden Backtest-Stufen bei der Entwicklung einer Handelsstrategie. Die Hauptphase des Backtests umfasst die Gestaltung eines Portfolios und die Entscheidung über Ausführungsregeln, während die zweite Phase tatsächlich das Backtesting durchführt, um zu sehen, ob die Modellvorhersagen mit zukünftigen Preisen korrelieren. Es ist wichtig, ein risikobeschränktes Portfolio aufzubauen, das die Modellvorhersagen erhalten kann, ohne sie zu sehr zu verfälschen. Der Redner weist darauf hin, dass alles relativ ist und Anleger zur nächsten Stufe übergehen sollten, wenn ihre Backtests durchweg genügend Beweise dafür liefern, dass es sich um eine bessere Anlagemöglichkeit als Alternativen handelt. Abschließend warnt der Redner davor, Modelle zu verwenden, bei denen es sich lediglich um aufgewärmte Versionen bestehender Modelle handelt, und ermutigt Anleger, die Möglichkeit, dass das Modell etwas Neuem folgen könnte, gründlich zu prüfen.
Idea to Algorithm: The Full Workflow Behind Developing a Quantitative Trading Strategy
Idea to Algorithm: The Full Workflow Behind Developing a Quantitative Trading Strategy
  • 2017.12.07
  • www.youtube.com
The process of strategy development is that of turning ideas into money. There are numerous steps in between, many of which are unknown to people entering in...
 

Quantitative Marktanalyse mit Excel-Arbeitsblättern! S&P 500-Analyse und Handelsideen



Quantitative Marktanalyse mit Excel-Arbeitsblättern! S&P 500-Analyse und Handelsideen

Das Video befasst sich intensiv mit der Verwendung von Excel-Arbeitsblättern für die quantitative Marktanalyse, wobei der Schwerpunkt auf dem S&P 500 als anschaulichem Beispiel liegt. Julie Marchesi demonstriert die Erstellung einer Korrelationsarbeitsmappe in Excel, wobei gelbe Kästchen als Eingaben verwendet werden, um den Korrelationsindex aus 74 Gruppen und einem Rückblickzeitraum von 40 Tagen auszuwählen. Der Korrelationstest vergleicht die letzten 40 Tage mit allen anderen Zeiträumen im Datensatz und ermittelt die höchste Korrelation. Um die Korrelation zu validieren, wird ein zweiter Markt verwendet, um die Ergebnisse zu bestätigen und unzuverlässige Datenpunkte zu eliminieren. Das Korrelationsindexdiagramm verfolgt visuell die Änderungen der Korrelation im Laufe der Zeit.

Der Redner erklärt den Prozess der Verwendung von Excel-Arbeitsblättern für die quantitative Marktanalyse und hebt insbesondere die Anwendung auf den S&P 500 hervor. Sie zeigen verschiedene Linien in einem Diagramm, die den Rückblickzeitraum und den Korrelationsindex darstellen. Durch die Analyse dieser Zeilen leitet der Redner seine Markteinschätzung ab und trifft Vorhersagen über zukünftige Trends. Sie führen außerdem ein Diagramm ein, das die durchschnittliche prozentuale Veränderung über einen bestimmten Zeitraum anzeigt, und betonen, wie wichtig es ist, sich auf signifikante Korrelationsindizes zu konzentrieren. Abschließend zeigt der Redner, wie diese Analyse auf die aktuelle Lage des S&P 500-Marktes angewendet werden kann, und betont ihren potenziellen Nutzen für fundierte Handelsentscheidungen.

Der Schwerpunkt des folgenden Abschnitts liegt auf der Untersuchung verschiedener Märkte auf Bestätigung oder widersprüchliche Signale in Bezug auf die S&P 500-Analyse. Der Redner betont, dass Öl zwar einen starken Aufwärtstrend auf dem Markt bestätigt und das Potenzial für weitere Aufwärtsbewegungen andeutet, der Euro und der Euro-Yen jedoch in den letzten 20 Tagen rückläufige oder negative Aktivitäten zeigten. Gold liefert jedoch keine nennenswerte Bestätigung. Basierend auf den jüngsten Marktbewegungen schlägt der Redner eine negative Tendenz für die Zukunft vor, warnt jedoch vor Leerverkäufen und empfiehlt, auf die Bestätigung zu warten, bevor er bedeutende Schritte unternimmt. Insgesamt kommt der Redner zu dem Schluss, dass der Markt einen Aufwärtstrend aufweist, kurzfristig jedoch Vorsicht geboten ist.

Der Redner erörtert im folgenden Abschnitt die Schlussfolgerungen, die aus den Korrelationstests für verschiedene Märkte gezogen wurden. Sie weisen auf die Möglichkeit einer gewissen Instabilität im S&P 500-Markt in den nächsten fünf Tagen hin. Obwohl die historische Analyse auf einen langfristigen Aufwärtstrend beim S&P 500 hinweist, betont der Redner, wie wichtig es ist, vor der Ausführung von Geschäften neutrale Marktaktivitäten zu beobachten. Sie schlagen vor, quantitative Analyse mit sentimentaler Analyse zu kombinieren, um ein besseres Verständnis des Marktes zu erlangen und die Nützlichkeit von Excel-Arbeitsblättern bei der Visualisierung von Daten auf verschiedene Arten hervorzuheben. Das Video endet damit, dass die Zuschauer aufgefordert werden, diese Art von Handelsansatz zu erkunden und die Website des Redners zu besuchen, um weitere Informationen zu seinem Journal und seinen Live-Trades zu erhalten.

  • 00:00:00 In diesem Abschnitt bespricht Julie Marchesi die Erstellung einer Korrelationsarbeitsmappe mit Excel, die ihr bei der Analyse von Märkten aus quantitativer Perspektive hilft. Die gelben Kästchen dienen als Eingaben, die die Auswahl des Korrelationsindex aus 74 Gruppen und Rückblickszeiträumen von 40 Tagen ermöglichen. Der Korrelationstest vergleicht die letzten 40 Tage mit allen anderen Zeiträumen im gesamten Datensatz, um die höchste Korrelation zu ermitteln. Sobald die höchsten Korrelationen gefunden wurden, verwendet die Arbeitsmappe einen zweiten Markt, um die Korrelation zu bestätigen und alle unzuverlässigen Datenpunkte auszusortieren. Das Korrelationsindexdiagramm verfolgt, wie sich die Korrelation im Laufe der Zeit ändert.

  • 00:05:00 In diesem Abschnitt erläutert der Redner am Beispiel des S&P 500, wie Excel-Arbeitsblätter für die quantitative Marktanalyse verwendet werden können. Er zeigt in einem Diagramm verschiedene Linien an, die den Rückblickzeitraum und den Korrelationsindex darstellen. Durch die Analyse dieser Linien kann er seine Markteinschätzung bestimmen und Vorhersagen über zukünftige Trends treffen. Er bespricht auch ein Diagramm, das die durchschnittliche prozentuale Veränderung über einen bestimmten Zeitraum zeigt und welche Korrelationsindizes am wichtigsten sind. Abschließend zeigt der Redner, wie diese Analyse auf die aktuelle Lage des S&P 500-Marktes angewendet werden kann und warum sie für Handelsentscheidungen nützlich sein kann.

  • 00:10:00 In diesem Abschnitt des Videos untersucht der Redner, wie verschiedene Märkte Bestätigungen oder widersprüchliche Signale für die S&P 500-Analyse liefern können. Während Öl bestätigt, dass sich der Markt in einem starken Aufwärtstrend befindet und Potenzial für eine anhaltende Aufwärtsaktivität aufweist, zeigten der Euro und der Euro-Yen in den letzten 20 Tagen eine rückläufige oder negative Aktivität. Gold hingegen liefert überhaupt keine große Bestätigung. Der Redner stellt fest, dass die jüngsten Marktbewegungen in den letzten 20 Tagen auf eine negative Tendenz für die Zukunft hindeuten, warnt jedoch vor Leerverkäufen und schlägt vor, auf die Bestätigung zu warten, bevor große Schritte unternommen werden. Insgesamt kommt der Redner zu dem Schluss, dass der Markt einen Aufwärtstrend aufweist, kurzfristig jedoch Vorsicht geboten ist.

  • 00:15:00 In diesem Abschnitt erörtert der Redner die Schlussfolgerungen, die aus den Korrelationstests verschiedener Märkte gezogen wurden, und stellt fest, dass es in den nächsten fünf Tagen zu einigen Schwankungen auf dem S&P 500-Markt kommen könnte. Der Redner erklärt, dass die historische Analyse zwar auf einen langfristigen Aufwärtstrend beim S&P 500 hindeutet, dass man jedoch nach einer Art neutraler Marktaktivität Ausschau hält, bevor man irgendwelche Geschäfte tätigt. Der Redner schlägt vor, quantitative Analyse und sentimentale Analyse zu kombinieren, um ein besseres Verständnis des Marktes zu erlangen, und Excel-Arbeitsblätter zu verwenden, um Daten auf unterschiedliche Weise zu visualisieren. Sie ermutigen die Zuschauer, diese Art des Handels auszuprobieren und ihre Website zu besuchen, um weitere Informationen zu ihrem Journal und Live-Trades zu erhalten.
Market Quantitative Analysis Utilizing Excel Worksheets! S&P 500 Analysis & Trading Ideas
Market Quantitative Analysis Utilizing Excel Worksheets! S&P 500 Analysis & Trading Ideas
  • 2013.12.01
  • www.youtube.com
Showcasing my new excel worksheet... enjoy! MarcheseFinancial.com@JulianMarcheseLeadersInvestmentClub.com
 

Aufbau von Quant-Equity-Strategien in Python



Aufbau von Quant-Equity-Strategien in Python

Das Video bietet eine detaillierte Untersuchung der Entwicklung quantitativer Aktienstrategien am Beispiel von Python und der algorithmischen Handelsplattform Quantopian. Der Redner stellt zunächst sich selbst und seinen Hintergrund in der Datenanalyse und Quant Finance vor. Sie erklären, dass Quantopian eine Plattform ist, die es Privatanlegern ermöglicht, auf Daten zuzugreifen und Backtesting zu nutzen, um ihre eigenen quantitativen Strategien für den Aktienhandel zu entwickeln. Trotz anfänglicher Skepsis hebt der Redner den Erfolg von Quantopian hervor, eine Gemeinschaft von Quant-Wissenschaftlern, Hackern und Privatanlegern anzuziehen, die zusammenarbeiten, um Anlageideen zu entdecken. Sie erwähnen auch, dass Quantopian zwar derzeit durch Venture-Capital-Unterstützung unterstützt wird und noch keine Einnahmen erzielt, es aber Pläne gibt, Live-Handel irgendwann als kostenpflichtigen Service anzubieten.

Der Redner befasst sich mit dem Konzept der Entwicklung quantitativer Strategien durch Crowdsourcing von Daten und Ideen auf der Quantopian-Plattform. Sie betonen, dass Quantopian die direkte Kommunikation zwischen Benutzern erleichtert und Verbindungen und Ideenaustausch für die Entwicklung quantitativer Algorithmen fördert. Der Redner räumt jedoch ein, dass Datenbeschränkungen eine Herausforderung für Benutzer darstellen können, die Strategien entwickeln, da sie möglicherweise nicht auf alle erforderlichen Preisdaten zugreifen können. Darüber hinaus weisen sie darauf hin, dass der Fokus von Quantopian ausschließlich auf Aktien liegt und möglicherweise nicht für hochfrequente oder latenzempfindliche Handelsstrategien geeignet ist.

Die Einschränkungen der Handelsplattform werden ausführlich besprochen. Der Redner betont, dass Quantopian nicht für Strategien mit geringer Latenz wie Scalping oder Market-Making konzipiert ist. Sie erwähnen, dass die Preisdatenquelle das Wertpapieruniversum bestimmt, das derzeit nur aus einigen Tausend inländischen Aktien besteht. Der Redner geht kurz auf ihr Open-Source-Basis-Slippage-Modell ein, das auf GitHub verfügbar ist. Obwohl die Einbeziehung von Optionen und Futures eine Möglichkeit für die Zukunft darstellt, liegt das Hauptaugenmerk weiterhin auf der Bereitstellung profitabler Strategien und der Gewährleistung der Transparenz der Rentabilitätsstatistiken. Der Redner kategorisiert fünf grundlegende quantitative Strategien, die von alltäglichen Python-Benutzern auf der Plattform implementiert werden, darunter Mean Reversion, Momentum, Overnight Gap, Volatilität und Pairing.

Es werden verschiedene quantitative Strategien untersucht, wobei der Schwerpunkt insbesondere auf dem Zusammenspiel und der Abstimmung von Mean-Reversion und Momentum liegt. Der Redner beleuchtet beliebte Strategien wie Bewertung und Saisonalität, wobei Daten für diese Strategien über Quellen wie Yahoo Finance oder Google Finance zugänglich sind. Sie warnen vor häufigen Fallstricken beim Paarhandel, wie etwa dem blinden Durchsuchen von Daten, um nicht verwandte Wertpapiere zu finden. Es wird betont, wie wichtig es ist, Wertpapiere zu identifizieren, die mit demselben Wert verbunden sind, und die Spread-Verteilung zwischen den beiden Vermögenswerten zu beobachten. Ziel ist es, von der Umkehr des Spreads zwischen den Aktien zu profitieren.

Pairs-Trading- und Momentum-Trading-Strategien werden weiter besprochen, und der Redner liefert ein Beispiel für das Backtesting einer Pairs-Trading-Strategie mit Python. Beim Paarhandel handelt es sich um den Handel mit der Spanne zwischen zwei Aktien und birgt Risiken wie mögliche Umkehrungen. Beim Momentum-Trading geht es dagegen um die Einstufung von Aktien auf der Grundlage ihres vorherigen Kursanstiegs. Obwohl Daten nicht direkt von der Plattform heruntergeladen werden können, können Benutzer aufgrund von Bandbreitenbeschränkungen Backtests und Live-Handel innerhalb eines begrenzten Universums von etwa 100 Aktien durchführen.

Es wird das Konzept der Bewertung als quantitative Aktienstrategie untersucht, die eine systematische Analyse der Fundamentalquoten erfordert, um unterbewertete und überbewertete Aktien zu identifizieren. Die Umsetzung solcher Strategien erfordert jedoch eine umfassende Datenabdeckung und ein Verständnis der Datennormalisierung, Kalenderausrichtung und der damit verbundenen Manipulation. Der Referent schlägt vor, diese Strategien mithilfe der Fetcher-Methode umzusetzen, die es Benutzern ermöglicht, CSV-Daten aus dem Internet abzurufen. Der Redner geht auch auf Sentiment als quantitative Aktienstrategie ein und umfasst die Analyse der Marktstimmung und ihrer Auswirkungen auf die Aktienkurse. Sie weisen jedoch darauf hin, dass die Umsetzung dieser Strategie ein solides Verständnis der Datenanalyse, -normalisierung und -manipulation erfordert.

Die Verwendung leerverkaufter Aktien als Stimmungsindikator in quantitativen Aktienstrategien wird diskutiert. Das Leerverkaufen von Aktien gilt als schwierig und riskant und nur erfahrene Personen sind bereit, sich darauf einzulassen. Zu diesem Zweck können jedoch öffentlich verfügbare Daten zum Short-Interest-Niveau nützlich sein, die von der NASDAQ erhältlich sind. Der Redner hebt das Risiko von Liquiditätsengpässen aufgrund von Short-Squeezes hervor und schlägt vor, ein volatilitätsbasiertes Signal zu verwenden, um stark leerverkaufte, aber weniger riskante Aktien zu identifizieren. Sie schlagen einen Algorithmus vor, der Aktien auf der Grundlage des „Days to Cover“-Signals einordnet, das die Anzahl der Tage darstellt, die Leerverkäufer benötigen würden, um ihre Positionen basierend auf dem durchschnittlichen täglichen Handelsvolumen aufzulösen. Die Strategie besteht darin, die am wenigsten leerverkauften Aktien zu kaufen und die am stärksten leerverkauften Aktien zu verkaufen.

Anschließend geht der Referent auf Zwischenschritte im Prozess und das Open-Sourcing von Algorithmen ein. Sie erkennen die Herausforderungen beim Zugriff auf wertvolle Daten wie Kreditzinsen von Brokern und die Einschränkungen ihrer Slippage-Modelle. Der Referent geht auf Fragen zu den verfügbaren Auftragsarten und dem Feedbacksystem für das Hinzufügen weiterer Funktionen ein. Darüber hinaus erwähnen sie kurz die Nutzung der Saisonalität im Handel und ihre Beliebtheit im Internet.

Es wird eine einfache, für Einsteiger geeignete quantitative Aktienstrategie vorgestellt. Die Verwendung von Saisonalität zur zeitlichen Abstimmung des Marktes, beispielsweise der Verkauf von Aktien im Mai und die Investition in Anleihen und der anschließende Rückkauf an der Börse im Oktober, wird als einfache systematische Regel hervorgehoben, die eine einfache Leistungsanalyse im Zeitverlauf ermöglicht. Der Redner bietet eine Aufschlüsselung der 25 wichtigsten quantitativen Aktienalgorithmen, die auf der Quantopian-Plattform geteilt werden, basierend auf der Anzahl der Antworten, Ansichten und Klone. Insbesondere ein Artikel über die Verwendung von Google-Suchbegriffen zur Vorhersage von Marktbewegungen hat in den Foren große Aufmerksamkeit erregt, obwohl er als überdimensioniert gilt. Der Redner weist außerdem darauf hin, dass Strategien mit langen, komplexen Akronymen und fortgeschrittenen mathematischen Konzepten trotz der Wirksamkeit einfacherer Strategien tendenziell mehr Interesse auf sich ziehen.

Die Bedeutung von Vertrauen und Sicherheit in der Plattform wird betont. Der Redner erkennt die Notwendigkeit an, Vertrauen bei den Benutzern aufzubauen, um sie zu ermutigen, ihre Algorithmen zum Testen auf dem Markt hochzuladen. Sie stellen sicher, dass Sicherheitsmaßnahmen ernst genommen werden. Während noch keine aggregierten Live-Leistungsdaten verfügbar sind, erwähnt der Redner, dass rund tausend Algorithmen in der Simulation laufen. Die potenziellen Vorteile eines sozialen Netzwerks für Quants werden diskutiert, wobei anerkannt wird, dass sich dies möglicherweise nicht direkt auf die Rentabilität einzelner Algorithmen auswirkt. Allerdings besteht innerhalb der Quant-Finance-Community der Wunsch, Kontakte zu knüpfen, Ideen auszutauschen und Erkenntnisse von anderen zu gewinnen. Der Wert von Quantopian als Lernumgebung wird hervorgehoben, in der Menschen in einer risikofreien Umgebung sowohl aus Erfolgen als auch aus Fehlern lernen können.

Der Redner untersucht die Beliebtheit verschiedener Anlagestrategieklassifizierungen innerhalb der Plattform. Sie stellen fest, dass Momentum- und Mean-Reversion-Strategien derzeit am beliebtesten sind. Sie zeigen sich begeistert über das Potenzial der Plattform, Privatanlegern zugänglichere Inhalte anzubieten. Es wird eine Demonstration des Backtesters der Plattform in Python bereitgestellt, die die Initialisierungsmethode und die Datenverarbeitungsmethode zeigt, die entweder einmal pro Tag oder einmal pro Minute während des Live-Handels ausgeführt werden. Die Einstellungen der Benutzeroberfläche ermöglichen die Angabe von Backtest-Daten, Anfangskapital und Backtesting-Häufigkeit. Der Community-Thread enthält eine Suchfunktion zum Auffinden und Verwenden von Algorithmen, die von anderen Mitgliedern erstellt wurden.

Im letzten Abschnitt stellt der Redner sein Live-Handels-Dashboard vor, das einen grundlegenden Algorithmus einsetzt, der ein gleichgewichtetes Portfolio aus neun Sektor-ETFs über sein Interactive Brokers-Konto kauft. Das Dashboard zeigt eine mit einer Benchmark verbundene Performance-Equity-Kurve in Rot, aktuelle Positionen sowie platzierte Aufträge und Ausführungen an. Der Redner erwähnt die Möglichkeit, Informationen zum bereitgestellten Quellcode zu protokollieren. Der verwendete Maßstab sind die Renditen des SPI, da eine unvoreingenommene Auswahl einer breiten Palette von Aktien derzeit nicht angeboten wird. Stattdessen stellen sie ein tägliches Dollar-Volumenuniversum bereit, das vierteljährlich aktualisiert wird.

  • 00:00:00 In diesem Abschnitt stellt sich die Referentin vor und gibt einen Hintergrund über ihre Erfahrungen im Bereich Datenanalyse und Quant Finance. Sie erklärt, dass Quantopian eine algorithmische Handelsplattform ist, die es jedem, insbesondere Privatanlegern, ermöglicht, auf Daten und Backtesting zuzugreifen, um seine eigenen quantitativen Strategien zu entwickeln und diese für den Handel mit Aktien auf sein eigenes Konto anzuwenden. Die Rednerin gibt einen Überblick über die Funktionsweise von Quantopian und betont, dass es der Plattform trotz ihrer anfänglichen Skepsis gelungen ist, eine Gemeinschaft von Quant-Wissenschaftlern, Hackern und Privatanlegern anzuziehen, die zusammenarbeiten, um Anlageideen zu finden. Sie erwähnt auch, dass Quantopian noch keine Einnahmen erzielt und durch Venture-Capital-Unterstützung unterstützt wird, mit Plänen, den Live-Handel schließlich als kostenpflichtigen Service in Rechnung zu stellen.

  • 00:05:00 In diesem Abschnitt diskutiert der Redner das Konzept der Entwicklung quantitativer Strategien aus Crowdsourcing-Daten und -Ideen auf seiner Plattform bei Quantopian. Die Plattform bietet Peer-to-Peer-Direktnachrichten und ermöglicht es Benutzern, sich zu vernetzen und ihre Ideen zur Entwicklung quantitativer Algorithmen auszutauschen. Der Redner räumt jedoch ein, dass Datenbeschränkungen ein großes Problem für Einzelpersonen darstellen können, die Strategien entwickeln, da sie möglicherweise nicht auf alle für ihre Algorithmen erforderlichen Preisdaten zugreifen können. Da sich die Plattform außerdem ausschließlich auf Aktien konzentriert, ist sie möglicherweise keine geeignete Plattform für Hochfrequenzhandel oder latenzempfindliche Handelsstrategien.

  • 00:10:00 In diesem Abschnitt erörtert der Redner die Einschränkungen seiner Handelsplattform und betont, dass es sich nicht um eine Plattform mit geringer Latenz für Scalping- oder Market-Making-Strategien handelt. Sie erwähnen auch, dass ihre Preisdatenquelle ihr Wertpapieruniversum definiert, das derzeit nur einige tausend inländische Aktien umfasst. Der Redner geht kurz auf ihr grundlegendes Slippage-Modell ein, das Open Source ist und auf GitHub zu finden ist. Sie sprechen auch die mögliche Einbeziehung von Optionen und Futures in der Zukunft an, weisen jedoch darauf hin, dass der Schwerpunkt auf der Bereitstellung profitabler Strategien und der Transparenz der Rentabilitätsstatistiken liegt. Abschließend kategorisiert der Redner fünf grundlegende zugängliche Quant-Strategien, die alltägliche Python-Benutzer auf der Plattform implementiert haben, darunter Mean Reversion, Momentum, Overnight Gap, Volatilität und Pairing.

  • 00:15:00 In diesem Abschnitt diskutiert der Redner einige grundlegende Quan-Strategien, die auf dem Zusammenspiel und der Abstimmung von Mean Reversion und Momentum basieren. Zwei beliebte Strategien sind Bewertung und Saisonalität. Daten für diese Strategien sind über Yahoo Finance oder Google Finance zugänglich. Anschließend geht der Redner auf die üblichen Fallstricke des Paarhandels ein, darunter blindes Data-Mining und das Auffinden zweier Wertpapiere, die tatsächlich keine Verbindung zueinander haben. Sie fördern das Verständnis dafür, dass es beim Paarhandel darum geht, zwei Dinge zu finden, die mit demselben Wert verbunden sind, und sich die Verteilung der Spanne zwischen den beiden Vermögenspreisen anzusehen und zu bemerken, wann die Spanne in die Enden der Verteilung gerät. Das Ziel besteht darin, den Spread zu kaufen, den Spread zu verkaufen und darauf zu wetten, dass sich der Preis zwischen den beiden Aktien irgendwann wieder erholt.

  • 00:20:00 In diesem Abschnitt diskutiert der Redner Paarhandels- und Momentumhandelsstrategien und zeigt ein Beispiel dafür, wie eine Paarhandelsstrategie mit Python rückgetestet werden kann. Beim Paarhandel wird der Spread zwischen zwei Aktien gehandelt und es gibt einige häufige Fallstricke, wie zum Beispiel potenziell verheerende Umkehrungen. Beim Momentum-Handel geht es dagegen um die Einstufung von Aktien auf der Grundlage ihres vorherigen Kursanstiegs über einen bestimmten Zeitraum. Der Redner erklärt außerdem, dass Sie Daten zwar nicht direkt von der Website herunterladen können, aber aufgrund von Bandbreitenbeschränkungen Backtests und Live-Handel innerhalb eines begrenzten Universums von etwa 100 Aktien durchführen können.

  • 00:25:00 In diesem Abschnitt erörtert der Redner das Konzept der Bewertung als quantitative Aktienstrategie und wie es eine systematische Analyse der fundamentalen Kennzahlen erfordert, um günstige und teure Aktien zu identifizieren. Er erwähnt jedoch, dass solche Strategien eine gute Datenabdeckung und ein Verständnis für die Normalisierung von Daten, die Ausrichtung von Kalendern und die damit verbundene Datenmanipulation erfordern. Der Redner schlägt vor, solche Strategien mithilfe der Fetcher-Methode umzusetzen, mit der Benutzer CSV-Daten aus dem Internet abrufen können. Darüber hinaus spricht er über Sentiment als quantitative Aktienstrategie, bei der es um die Analyse der Marktstimmung und ihrer Auswirkungen auf die Aktienkurse geht. Er weist jedoch darauf hin, dass die Umsetzung dieser Strategie auch ein solides Verständnis der Datenanalyse, -normalisierung und -manipulation erfordert.

  • 00:30:00 In diesem Abschnitt diskutiert der Redner die Verwendung von leerverkauften Aktien als Stimmungsindikator beim Aufbau quantitativer Aktienstrategien. Der Leerverkauf von Aktien ist schwierig und riskant, und nur wer weiß, was er tut, ist dazu bereit. Das Short-Interest-Niveau oder die Anzahl der Leerverkäufe an öffentlich gehandelten Aktien sind öffentlich verfügbare Daten, die von der NASDAQ abgerufen werden können. Die Daten sind jedoch zeitverzögert und weisen eine geringe Snapshot-Frequenz auf. Der Redner hebt auch das Risiko einer Liquiditätsbeschränkung durch Short-Squeezing hervor und schlägt die Verwendung eines Volatilitätssignals vor, um stark leerverkaufte, aber weniger riskante Aktien zu identifizieren. Der Algorithmus beinhaltet die Einstufung von Aktien auf der Grundlage des „Days to Cover“-Signals, das die Anzahl der Tage des durchschnittlichen täglichen Handels darstellt, die Leerverkäufer benötigen würden, um sich abzuwickeln. Die Strategie kauft die am wenigsten leerverkauften Aktien und leerverkauft die am meisten leerverkauften Aktien.

  • 00:35:00 In diesem Abschnitt des Videos spricht der Referent über die Zwischenschritte im Prozess und die Open-Sourcing der Algorithmen. Er erörtert auch die Schwierigkeit, auf wertvolle Daten wie Kreditzinsen von Brokern zuzugreifen, und die Einschränkungen ihrer Slippage-Modelle. Der Referent beantwortet Fragen zu den aktuell verfügbaren Bestellarten und dem Feedback-System zum Hinzufügen weiterer Funktionen. Darüber hinaus geht der Redner kurz auf die Nutzung der Saisonalität im Handel und deren Beliebtheit im Internet ein.

  • 00:40:00 In diesem Abschnitt bespricht der Redner das einfachste Beispiel einer quantitativen Aktienstrategie für Einsteiger. Ein solches mögliches Beispiel könnte die Nutzung der Saisonalität zur zeitlichen Abstimmung des Marktes sein, beispielsweise der Verkauf von Aktien im Mai und die Investition in Anleihen, um dann im Oktober wieder an der Börse einzukaufen. Hierbei handelt es sich um eine einfache systematische Regel, die eine einfache Analyse der Leistung im Zeitverlauf ermöglicht. Sie präsentieren außerdem eine Aufschlüsselung der 25 wichtigsten quantitativen Aktienalgorithmen, die auf der Quantiopian-Plattform geteilt werden, basierend auf der Anzahl der Antworten, der Anzahl der Aufrufe und wie oft sie geklont wurden. Unter anderem hat ein Artikel über die Verwendung von Google-Suchbegriffen zur Vorhersage von Marktbewegungen in den Foren große Aufmerksamkeit erregt, obwohl er als überangepasst gilt. Abschließend stellt der Redner fest, dass Menschen tendenziell Strategien mit langen, komplizierten Akronymen, die schwierige mathematische Konzepte beinhalten, attraktiver finden als einfache Strategien, die effektiv funktionieren.

  • 00:45:00 In diesem Abschnitt erörtert der Redner die Bedeutung von Vertrauen und Sicherheit, um sicherzustellen, dass Menschen bereit sind, ihre Algorithmen zum Geldverdienen auf eine Online-Plattform hochzuladen, um sie mit dem Markt zu vergleichen. Der Redner betont die Notwendigkeit, bei den Nutzern ein gewisses Maß an Vertrauen aufzubauen, damit sie sich bei der Nutzung der Plattform wohl fühlen, und erwähnt, dass sie ihre Sicherheitsmaßnahmen ernst nehmen. Obwohl noch keine aggregierten Live-Leistungsdaten verfügbar sind, weist der Sprecher darauf hin, dass etwa tausend Algorithmen in der Simulation ausgeführt werden. Der Redner betrachtet die potenziellen Vorteile eines sozialen Netzwerks für Quants, ist sich jedoch nicht sicher, ob es die Rentabilität einzelner Algorithmen steigern wird. Allerdings ist er davon überzeugt, dass in der Quant-Finance-Welt ein Nachholbedarf besteht, miteinander zu reden und zu verstehen, was andere tun. Abschließend betont der Redner den Wert der Plattform als Lernumgebung, in der Menschen in einer sicheren, risikofreien Umgebung von den Erfolgen und Fehlern der anderen lernen können.

  • 00:50:00 In diesem Abschnitt des Videos diskutiert der Redner die Beliebtheit verschiedener Klassifizierungen von Anlagestrategien und wie sie innerhalb ihrer Plattform dargestellt werden. Sie stellen fest, dass Momentum- und Mean-Reversion-Strategien derzeit am beliebtesten sind. Sie zeigen sich begeistert über das Potenzial der Plattform, mehr Inhalte hinzuzufügen, die Privatanlegern zugänglich sind. Der Redner demonstriert auch, wie der Backtester der Plattform in Python funktioniert, wobei eine Initialisierungsmethode und eine Handle-Data-Methode einmal täglich oder einmal pro Minute im Live-Handel ausgeführt werden. Die einzigen UI-Einstellungen sind die Daten für den Backtest, das Anfangskapital und die Backtesting-Häufigkeit. Im Community-Thread steht eine Suchfunktion zur Verfügung, mit der Mitglieder verschiedene von anderen Mitgliedern erstellte Algorithmen finden und diese kopieren und in die IDE der Plattform einfügen können.

  • 00:55:00 In diesem Abschnitt demonstriert der Redner sein Live-Handels-Dashboard, in dem ein grundlegender Algorithmus, der ein gleichgewichtetes Portfolio aus neun Sektor-ETFs kauft, auf seinem Interactive Brokers-Konto eingesetzt wird. Das Dashboard zeigt eine Performance-Equity-Kurve, die mit einer Benchmark in Rot verbunden ist, aktuelle Positionen sowie platzierte Aufträge und Ausführungen. Der Redner erwähnt auch die Möglichkeit, Informationen für einen bereitgestellten Quellcode zu protokollieren. Der Maßstab sind die Renditen des SPI, und derzeit bieten sie nicht die Möglichkeit, eine breite Palette von Aktien unvoreingenommen auszuwählen. Stattdessen bieten sie ein tägliches Dollarvolumenuniversum an, das vierteljährlich aktualisiert wird.
Building Quant Equity Strategies in Python
Building Quant Equity Strategies in Python
  • 2014.07.22
  • www.youtube.com
Presented by Dr. Jess StauthDr Jess Stauth, VP of Quant Strategy at Quantopian, former quant research analyst at StarMine, and former director of quant produ...
 

Die Do's und Don't's des Quant Trading



Die Do's und Don't's des Quant Trading

Dr. Ernie Chan, eine herausragende Persönlichkeit im quantitativen Handel, erörtert die Herausforderungen und gibt Händlern in diesem Bereich wertvolle Ratschläge. Er hebt die von Branchenexperten festgestellte zunehmende Schwierigkeit des quantitativen Handels sowie die unterdurchschnittliche Leistung vieler Fonds für maschinelles Lernen hervor. Um erfolgreich zu sein, müssen Händler ihre Fähigkeiten verbessern und wichtige Lektionen lernen. Basierend auf persönlichen Erfahrungen teilt Dr. Chan mit, was Händler vermeiden sollten, und gibt Ratschläge für langfristigen Erfolg.

Eine der wichtigsten Warnungen, die Dr. Chan hervorhebt, ist die Versuchung, zu viel zu verschulden, insbesondere in Zeiten starker Strategieergebnisse. Obwohl die Kelly-Formel häufig für das Risikomanagement verwendet wird, warnt er davor, dass sie zu übermäßig optimistischen Erwartungen führen kann und empfindlich auf Stichprobenzeiträume reagiert. Stattdessen schlägt er vor, die Volatilität als vorhersehbareres Maß zur Bestimmung der Hebelwirkung zu verwenden. Indem Händler auf die erwartete Volatilität einer Strategie abzielen, können sie geeignete Leverage-Levels bestimmen und sich dabei auf das Risiko und nicht nur auf die prognostizierten Renditen konzentrieren.

Dr. Chan gibt zwei wesentliche Ratschläge für den quantitativen Handel. Erstens betont er, wie wichtig es ist, das Abwärtsrisiko einer Strategie zu berücksichtigen (dh wie viel verloren werden kann), anstatt sich auf potenzielle Gewinne zu konzentrieren, die unvorhersehbar sind. Zweitens warnt er davor, die kurzfristige Leistung als alleinige Grundlage für die Auswahl von Managern oder die Bestimmung der Hebelwirkung heranzuziehen. Stattdessen rät er, nach längeren Erfolgsbilanzen zu suchen und die kurzfristige Leistung für das Risikomanagement und die schrittweise Umverteilung zu nutzen. Darüber hinaus ermutigt er Händler, eine geschäftsorientierte Denkweise anzunehmen und Gewinne in die Infrastruktur ihres Handelsgeschäfts zu reinvestieren, anstatt sich persönlichen Luxus zu gönnen.

Investitionen in die Infrastruktur des Handelsgeschäfts sind ein Thema, das Dr. Chan hervorhebt. Er schlägt vor, Investitionen in hochwertige Daten, schnellere Maschinen und qualifiziertes Personal zu priorisieren. Qualitativ hochwertige Daten sind entscheidend, um genaue Backtesting-Ergebnisse sicherzustellen, während schnellere Maschinen die Forschungsproduktivität steigern. Durch die Einstellung von Personal mit den erforderlichen Fähigkeiten wird die Leistungsfähigkeit des Unternehmens weiter gestärkt. Dr. Chan betont die langfristigen Vorteile dieser Investitionen und betrachtet den Handel als ernstzunehmendes Geschäftsvorhaben.

Um die Forschungsproduktivität zu verbessern, betont Dr. Chan, wie wichtig es ist, in Mehrkernmaschinen und geeignete Software für paralleles Rechnen zu investieren. Diese Investition kann die Produktivität deutlich um das Fünf- bis Zehnfache steigern. Er empfiehlt außerdem, sich auf den eigenen komparativen Vorteil zu konzentrieren und etwaige Defizite durch die Zusammenarbeit mit Personen auszugleichen, die über komplementäre Fähigkeiten verfügen, beispielsweise in den Bereichen Programmierung, Strategie, Marketing oder Betrieb.

Dr. Chan plädiert für einen kollaborativen Ansatz beim quantitativen Handel. Er betont, dass die Zusammenarbeit in verschiedenen Formen erfolgen kann, einschließlich virtueller Handelsgruppen, die von Universitätsstudenten gebildet werden. Der Austausch von Ideen und das Unterrichten anderer über Strategien kann zu wertvollem Feedback führen und die Gesamtleistung verbessern. Während es wichtig ist, den eigenen Wettbewerbsvorteil zu schützen, kann der Austausch grundlegender Handelsideen zu einem Nettozufluss an Wissen und Erkenntnissen führen.

Darüber hinaus rät Dr. Chan Anfängern, mit einfachen Handelsstrategien zu beginnen, die auf soliden intuitiven Begründungen basieren. Er betont, wie wichtig es ist, schlechte Trades zu eliminieren, anstatt nur nach profitableren Trades zu suchen. Zu wissen, wann man nicht handeln sollte und wann man bestimmte Ideen nicht anwenden sollte, trägt zum langfristigen Erfolg bei. Er fördert außerdem das kontinuierliche Lernen und die Verbesserung der Handelsstrategien.

Während einer Frage-und-Antwort-Runde gibt Dr. Chan Einblicke in die Konstruktion von Finanzderivaten, empfiehlt die Verwendung von Python als Ausgangspunkt in diesem Bereich und erörtert effektive Strategien wie Momentum-Handel und Risikoparität. Er betont die Notwendigkeit eines besseren Risikomanagements, um eine Strategie auch bei sinkenden Renditen aufrechtzuerhalten.

Zusammenfassend gibt Dr. Ernie Chan wertvolle Ratschläge für quantitative Händler. Er warnt vor übermäßiger Verschuldung und kurzfristiger Leistungsabhängigkeit und betont, wie wichtig es ist, das Abwärtsrisiko zu berücksichtigen und sich auf längere Erfolgsbilanzen zu konzentrieren. Er legt Wert auf Investitionen in die Unternehmensinfrastruktur, einschließlich Daten, Maschinen und Personal. Zusammenarbeit, beginnend mit einfachen Strategien, und kontinuierliches Lernen sind der Schlüssel zum langfristigen Erfolg.

  • 00:00:00 Dr. Ernie Chan spricht über die Herausforderungen, vor denen der quantitative Handel derzeit steht, und darüber, wie die Branche reift. Er erwähnt, dass der quantitative Handel von Jahr zu Jahr schwieriger wird, wie von De Sha und Dr. Lopez de Prado zitiert, der einen quantitativen Fonds im Wert von 13 Milliarden US-Dollar verwaltet. Die meisten Fonds für maschinelles Lernen scheitern, und die Leistung der größten investierbaren Devisenhandelsprogramme wurde in den letzten zwei Jahren einheitlich angegriffen. Dr. Chan glaubt, dass Händler, um in diesem Bereich zu überleben und erfolgreich zu sein, ihr Spiel verbessern und einige Lektionen auf hohem Niveau lernen müssen. Er teilt auch einige Dinge mit, die Händler vermeiden sollten, da er gegen die meisten davon verstoßen und seine Lektion gelernt hat.

  • 00:05:00 Der Redner warnt vor der Versuchung, im Handel zu viel zu hebeln, insbesondere in Zeiten, in denen eine Strategie gut funktioniert. Während Händler versucht sein könnten, sich beim Risikomanagement auf die Kelly-Formel zu verlassen, weist der Redner darauf hin, dass diese zu übermäßig optimistischen Erwartungen führen und sehr empfindlich auf Stichprobenperioden reagieren kann. Stattdessen schlägt er vor, die Volatilität als vorhersehbareren Input zur Bestimmung der Hebelwirkung zu verwenden, da eine genaue Vorhersage von Renditen sehr schwierig sein kann. Daher sollten Händler darauf abzielen, die erwartete Volatilität ihrer Strategie ins Visier zu nehmen und ihre Hebelwirkung auf der Grundlage dieser Menge und nicht auf der Grundlage der prognostizierten Renditen zu bestimmen.

  • 00:10:00 Der Referent gibt zwei wichtige Ratschläge für Quant Trading. Erstens ist es wichtig, sich bei der Bestimmung der Hebelwirkung auf die Zungenseite der Strategie zu konzentrieren, d. Zweitens ist es von entscheidender Bedeutung, die kurzfristige Leistung nicht zur Auswahl von Managern oder zur Bestimmung des Carry-Hebels heranzuziehen, da dies einer wissenschaftlichen Studie zufolge sinnlos ist. Stattdessen rät der Redner dazu, eine längere Erfolgsbilanz anzustreben und die kurzfristige Performance für das Risikomanagement und die schrittweise Umverteilung zu nutzen. Darüber hinaus ermutigt er Händler zu einer geschäftsorientierten Denkweise, bei der Händler ihre Gewinne in Datengeräte reinvestieren, anstatt sie für Extravaganzen wie Reisen und Luxusartikel auszugeben.

  • 00:15:00 Der Redner betont die Bedeutung der Gewinninvestition im Handelsgeschäft. Anstatt in ein größeres Portfolio zu investieren, ist es besser, in die Infrastruktur des Unternehmens zu investieren, beispielsweise in Daten, Ausrüstung oder Personal. Was die Daten betrifft, ist es von entscheidender Bedeutung, in qualitativ hochwertige Daten zu investieren, da billige Daten oft Vorbehalte haben, die die Genauigkeit des Backtests beeinträchtigen können. Ebenso ist es wichtig, über schnellere Maschinen zu verfügen, um die Forschungsproduktivität zu steigern und das richtige Personal einzustellen, das über die für die Aufgabe erforderlichen Fähigkeiten verfügt. Diese Investition in das Unternehmen kann die langfristige Überlebensfähigkeit des Unternehmens verbessern. Der Redner kommt zu dem Schluss, dass die Führung eines Handelsunternehmens wie jedes andere Unternehmen auf längere Sicht von Vorteil sein kann.

  • 00:20:00 Der Redner erörtert die Bedeutung der Investition in eine Multi-Core-Maschine und geeignete Software für paralleles Rechnen, um die Forschungsproduktivität um das Fünf- bis Zehnfache zu steigern. Dies ist eine hervorragende Investition, wenn man bedenkt, dass Maschinen viel billiger sind als Arbeitskräfte. Darüber hinaus ist die Investition in eine lokale Maschine kosteneffektiver und produktiver als die Investition in Cloud Computing, das eine psychologische Hürde darstellt und Datenübertragungen und Zahlungen für die Speicherung erfordert. Der Redner betont die Notwendigkeit, sich auf den eigenen komparativen Vorteil zu konzentrieren und etwaige Defizite durch Investitionen in Personal mit ergänzenden Fähigkeiten wie Programmierung, Strategie, Marketing oder Betrieb auszugleichen.

  • 00:25:00 Der Redner erläutert, wie wichtig es ist, in Personal zu investieren, um Ihre Defizite zu beheben und Ihre Strategien zu erweitern. Er betont, dass der Handel als ernstes Geschäft betrachtet werden sollte und dass es Möglichkeiten gibt, mit der Situation umzugehen, wenn man nicht über das Kapital verfügt, um in Personal zu investieren. Die besten Quant-Fonds verwenden heute einen Teamansatz, bei dem die entwickelte Strategie nicht die Arbeit eines Einzelnen, sondern eine Teamleistung ist. Daher ist es von Vorteil, Finanzphänomene statt Handelsstrategien zu untersuchen, da dies die Qualität der Handelsstrategien verbessert. Der Redner stellt außerdem fest, dass der Ansatz unabhängiger Händler veraltet ist und jüngere Händler einen einzigartigen Ansatz verfolgen, der vielversprechend ist.

  • 00:30:00 Der Redner erörtert die Vorteile der Marktforschung, die über die bloße Entwicklung profitabler Handelsstrategien hinausgehen. Durch einen wissenschaftlichen Ansatz und die Untersuchung von Phänomenen aus eigener Neugier und Interesse können Händler interessante Marktartefakte aufdecken, die wiederholbar sind und nicht nur auf eine Überanpassung früherer Daten zurückzuführen sind. Der Redner plädiert dafür, mit einfachen Handelsstrategien mit guter intuitiver Begründung zu beginnen und weist darauf hin, dass eine erfolgreiche Strategie häufig darin besteht, schlechte Trades zu eliminieren, anstatt profitablere Trades zu finden. Darüber hinaus ist der Trader, der weiß, wann er nicht handeln sollte und wann er eine bestimmte Idee nicht anwenden sollte, auf lange Sicht wahrscheinlich erfolgreicher.

  • 00:35:00 Es wird betont, wie wichtig es ist, mit einer einfachen Handelsstrategie zu beginnen, da dies dazu beiträgt, die überwältigende Menge an Informationen zu durchbrechen und persönliche Erfahrungen zu sammeln. Es ist jedoch auch wichtig, nicht auf diesem Niveau zu bleiben und kontinuierlich weitere Prädiktoren hinzuzufügen, um die Lebensdauer einzelner Prädiktoren zu verlängern. Mehrere Prädiktoren können auf verschiedene Weise exponentiell kombiniert werden, beispielsweise linear oder in Schichten, was ihre Replikation erschwert und zu einem langsameren Alpha-Zerfall beiträgt. Beim Kombinieren von Prädiktoren ist häufig maschinelles Lernen erforderlich, es besteht jedoch die Gefahr einer Überanpassung. Trotz dieser Herausforderungen zieht der Redner eine optimistische Bilanz und ermutigt die Händler, kontinuierlich zu lernen und ihre Strategien zu verbessern.

  • 00:40:00 Ernie spricht über die Bedeutung der Zusammenarbeit im quantitativen Handel. Er betont, dass Zusammenarbeit in verschiedenen Formen stattfinden kann und nicht nur auf große Konzerne oder Firmen beschränkt ist. Universitätsstudenten können beispielsweise zusammenarbeiten und eine virtuelle Handelsgruppe bilden, in der verschiedene Personen unterschiedliche Fähigkeiten einbringen können, um eine erfolgreiche Handelsstrategie zu entwickeln. Ernie ermutigt Händler außerdem, ihre Ideen zu teilen und nicht zu zögern, andere über ihre Strategien zu unterrichten. Obwohl er davon überzeugt ist, dass die meisten Handelsideen nicht originell sind, sind es die Ausführung, das Risikomanagement und andere Wettbewerbsvorteile, die der Strategie hinzugefügt werden, die dafür sorgen, dass sie besser funktioniert und länger anhält. Daher müssen Händler ihren Wettbewerbsvorteil nicht aufgeben, aber der Austausch grundlegender Handelsideen kann zu einem Nettozufluss führen, da andere Feedback geben, das die Strategie schärfen und verbessern kann.

  • 00:45:00 Der Redner bespricht seinen Hintergrund im quantitativen Handel und erwähnt sein erfolgreiches Forex-Modell, das in seiner Blütezeit eine Sharpe Ratio von über drei erbrachte. Er rät Software-Ingenieuren, zunächst die Modelle anderer Leute zu untersuchen, sie zu testen und zu handeln und mit Personen zusammenzuarbeiten, die über grundlegende Kenntnisse, aber keine Programmierkenntnisse verfügen. Er schlägt verschiedene Methoden zur Vorhersage der Volatilität vor und empfiehlt Handelsstrategien nur in günstigen Regimen. Auf die Frage nach den Qualifikationen für die Einstellung quantitativer Entwickler legt er Wert auf Programmierkenntnisse und ein grundlegendes Verständnis des Marktes und seiner Feinheiten.

  • 00:50:00 Der Referent bespricht die Vor- und Nachteile des quantitativen Handels. Er betont, dass man, wenn eine Handelsstrategie kein Geld bringt, ihren Hebel verringern sollte, bis er im Portfolio zu Lärm wird. Der Redner betont, wie wichtig es ist, im Handel nach Mustern und Phänomenen zu suchen, ähnlich wie in der Physik und im Ingenieurwesen. Als Anfänger empfiehlt er, einen Wettbewerbsvorteil zu erkennen und mit jemandem zusammenzuarbeiten, der über ergänzende Fähigkeiten verfügt. Der Redner erwägt dann die Verwendung von mehr Daten in ML-Algorithmen, erklärt, dass mehr Daten nicht immer besser sind, und schlägt vor, Bagging zu verwenden, um Daten zu simulieren, ohne weiter in den Verlauf einzutauchen. Abschließend stellt der Redner fest, dass ein besseres Risikomanagement von entscheidender Bedeutung ist, da es einem ermöglicht, eine Strategie weiterzuverfolgen, ohne Geld zu verlieren, selbst wenn die Rendite zu schwinden beginnt.

  • 00:55:00 Ernie Chan beantwortet Fragen von Zuschauern zum Thema Quant Trading. Er weist darauf hin, dass der Aufbau von Finanzderivaten eine gute Gelegenheit für diejenigen mit Fachkenntnissen darstellt, aber die Suche in Nischenbereichen erfordert. Er empfiehlt die Verwendung von Crisp Data und Tech Data zum Backtesting von Aktiendaten, warnt jedoch davor, dass gute Daten mit hohen Kosten verbunden sind. Chan erörtert auch Momentum-Handel und Risikoparität als wirksame Strategien im aktuellen Umfeld und schlägt vor, dass Python eine gute Open-Source-Quelle für den Einstieg in diesem Bereich sei.
The Do's and Don't's of Quant Trading
The Do's and Don't's of Quant Trading
  • 2018.04.06
  • www.youtube.com
The best advice on how to thrive, or at least survive, in the increasingly competitive world of quantitative trading. Topics include optimal leverage, perfor...
 

Quantitative Finanzen | Klassifikation quantitativer Handelsstrategien von Radovan Vojtko



Quantitative Finanzen | Klassifikation quantitativer Handelsstrategien von Radovan Vojtko

Radovan Vojtko, der CEO von Quantpedia, liefert wertvolle Einblicke in den Prozess der Auswahl quantitativer Handelsstrategien für seine Datenbank. Er betont, wie wichtig es ist, akademische Forschung zu nutzen, um zuverlässige und umsetzbare Strategien zu entdecken, die von Händlern genutzt werden können. Trotz weit verbreiteter Missverständnisse betont Vojtko, dass es in wissenschaftlichen Arbeiten immer noch zahlreiche Handelsideen gibt, die Potenzial haben.

Vojtko erklärt, dass die beliebteste Anlageklasse für Handelsstrategien Aktien seien, gefolgt von Rohstoffen, Währungen, Anleihen und Immobilien. Diese Anlageklassen bieten vielfältige Möglichkeiten zur Umsetzung quantitativer Strategien. Er kategorisiert quantitative Strategien in verschiedene Klassifikationen, darunter unter anderem Timing, Arbitrage und Momentum.

Ein wichtiger Aspekt, den Vojtko hervorhebt, ist die Existenz blinder Flecken in der akademischen Forschung, insbesondere bei weniger gut abgedeckten Anlageklassen wie Anleihen und Rohstoffen. Diese blinden Flecken bieten Möglichkeiten, neue Alpha-Quellen zu entdecken, und Händler können daraus Kapital schlagen. Um Probleme wie P-Hacking und Replikation zu bekämpfen, empfiehlt Vojtko strenge Tests und den Einsatz von Momentum-Anonymisierungstechniken.

Entgegen der Annahme, dass veröffentlichte Handelsstrategien nicht mehr funktionieren, behauptet Vojtko, dass einige Strategien auch nach ihrer Veröffentlichung weiterhin positive Ergebnisse liefern, wobei nach fünf Jahren noch mehr als 40 % des Alphas verbleiben. Um die vielversprechendsten Strategien auszuwählen, schlägt er vor, Tests außerhalb der Stichprobe durchzuführen, den Grenzwert für die statistische Signifikanz zu erhöhen, eine umfassende Datenbank mit Strategien aufzubauen und diejenigen mit der besten Leistung auszuwählen.

Vojtko erörtert außerdem spezifische Handelsstrategien, wie z. B. Mean-Reversion-Ansätze beim Handel mit Warenterminkontrakten und Risikostrategien vor der Gewinnmitteilung. Er betont die Bedeutung des Alpha-Zerfalls und die Herausforderungen, die P-Hacking und Data Mining mit sich bringen. Es ist von entscheidender Bedeutung, Strategien vor der Umsetzung gründlich zu testen und zu validieren.

Vojtko widerlegt das Missverständnis, dass quantitative Handelsstrategien nach ihrer Veröffentlichung an Wirksamkeit verlieren, und zitiert Forschungsergebnisse, die zeigen, dass Strategien im Laufe der Zeit immer noch eine gute Leistung erbringen können. Er rät Händlern, das Ausbaggern von Daten zu vermeiden, und unterstreicht die Notwendigkeit gründlicher Tests und Validierungen.

Im Hinblick auf die Replikation in der akademischen Forschung schlägt Vojtko vor, den Grenzwert für die statistische Signifikanz zu erhöhen und Out-of-Sample-Tests einzusetzen, um Portfolios auf der Grundlage veröffentlichter Daten zu vergleichen. Dieser Ansatz gewährleistet eine genauere Replikation und ermöglicht die Identifizierung erfolgreicher Strategien.

Um den Pool an profitablen Strategien zu erweitern, empfiehlt Vojtko, eine Datenbank mit einem breiten Spektrum an Strategien aufzubauen und diejenigen mit der besten Leistung auszuwählen. Er stellt auch Ressourcen für die Suche nach quantitativen Handelsstrategien bereit, beispielsweise das Social Science Network und Quantpedia.

In Bezug auf Programmiersprachen für quantitative Finanzen erwähnt Vojtko die Verfügbarkeit verschiedener Optionen und empfiehlt, eine Sprache zu wählen, mit der man vertraut ist. Python ist eine bevorzugte Sprache, aber auch andere Optionen wie Tradestation, Ninjatrader oder Ami Broker können effektiv sein. Vojtko betont die Notwendigkeit, Finanz- und Technologiekompetenzen für einen erfolgreichen algorithmischen Handel zu vereinen, und bietet Bildungsprogramme zur Entwicklung von Fachwissen in beiden Bereichen an.

  • 00:00:00 In diesem Abschnitt stellt Arjuna Radovan Vojtko vor, den CEO von Quantpedia, einer Website, die als Enzyklopädie quantitativer Handelsstrategien dient. Vojtko ist ein ehemaliger Portfoliomanager und hat über 300 Millionen Euro an quantitativen Fonds verwaltet, die sich auf Multi-Asset-ETA-Trendfolgestrategien, Markt-Timing und Volatilitätshandel konzentrieren. Vojtko betont, wie wichtig es ist, der finanzwissenschaftlichen Forschung Aufmerksamkeit zu schenken, und erwähnt, dass in der akademischen Forschung viele interessante Handelsstrategien und -ideen veröffentlicht wurden, die Menschen für den Handel nutzen oder sie für ihre eigenen Handelssysteme optimieren können. Er teilt auch einige häufige Probleme im Zusammenhang mit der Umsetzung von Strategien, die aus der akademischen Forschung stammen.

  • 00:05:00 In diesem Abschnitt bespricht Radovan Vojtko den Prozess der Auswahl von Handelsstrategien für seine Datenbank. Er erklärt, dass sie viele wissenschaftliche Arbeiten lesen und Strategien auswählen, die umsetzbar sind und zuverlässige Leistungs- und Risikoeigenschaften aufweisen. Er führt als Beispiel die Momentum-Strategie bei Aktien an, über die erstmals 1993 in einem Artikel von Jagadeesh und Titman und in darauffolgenden verwandten Artikeln geschrieben wurde. Vojtko erwähnt auch, dass sie keine Handelscodes veröffentlichen, da institutionelle Kunden es vorziehen, Strategien anhand ihrer eigenen Daten zu testen. Abschließend skizziert er die drei großen Gruppen, die quantitative Forschung betreiben: Akademiker, Sell-Side-Research sowie Hedgefonds und Vermögensverwaltungsgesellschaften.

  • 00:10:00 In diesem Abschnitt diskutiert der Referent den Überblick und die Klassifizierung quantitativer Handelsstrategien. Aktien seien laut dem Referenten eine in der akademischen Forschung gut abgedeckte Anlageklasse, gefolgt von Rohstoffen, Währungen, Anleihen und Immobilien. Der beliebteste Zeitrahmen für Handelsstrategien ist die monatliche Neuausrichtung, wobei der Hochfrequenzhandel aufgrund des Bedarfs an teureren Daten- und Programmieranforderungen unterrepräsentiert ist. Themenmäßig sind Aktienstrategien wie Long-Short und Momentum am beliebtesten, gefolgt von Market Timing, Value und fundamentalen Ertragseffekten. Der Referent stellt außerdem seinen Standpunkt dar, wie man interessante Handelsstrategien in einer Datenbank klassifizieren und finden kann.

  • 00:15:00 In diesem Abschnitt diskutiert der Referent die verschiedenen Klassifizierungen quantitativer Handelsstrategien und stellt das Konzept der blinden Flecken in der Forschung vor. Blinde Flecken beziehen sich auf Forschungsbereiche, die nicht gut abgedeckt sind und Möglichkeiten für die Suche nach neuen Alpha- oder Handelsstrategien bieten. Anschließend präsentiert der Referent eine Verteilung verschiedener Strategien über Anlageklassen hinweg und zeigt, dass Aktien dominieren, während Anleihen und REITs nicht gut abgedeckt sind. Unter den bekannten Stilen werden Momentum und Arbitrage ausführlich behandelt, aber der Redner hebt Möglichkeiten hervor, die sich aus der Timing-Strategie für andere Anlageklassen und der Entwicklung interessanter Strategien für den Währungshandel ergeben.

  • 00:20:00 In diesem Abschnitt diskutiert Radovan Vojtko die Klassifizierung quantitativer Handelsstrategien nach Anlageklassen, mit besonderem Schwerpunkt auf Aktienstrategien. Er weist darauf hin, dass es mehr Aktienhandelsstile als alle anderen Anlageklassen zusammen gibt, mit sechs Haupttypen von Aktienstrategien, zu denen Timing, Arbitrage und Value Trading gehören. Allerdings gibt es bei beliebten Stilen blinde Flecken und einige Anlageklassen wie Anleihen und Rohstoffe werden noch nicht ausreichend erforscht. Vojtko weist auch auf einige Lücken bei Intraday- und Short-Only-Strategien hin, die eine große Chance bieten, einzigartige und interessante Anlagemöglichkeiten zu finden, die in Forschungsarbeiten nicht behandelt wurden.

  • 00:25:00 In diesem Abschnitt werden im Video zwei quantitative Handelsstrategien besprochen. Die erste Strategie beinhaltet die Verwendung eines Mean-Reversion-Ansatzes für den Handel mit Warenterminkontrakten. Der Ansatz umfasst die Gruppierung von Rohstoffen mit ähnlichen Merkmalen, die Berechnung des Rohstoff-Total-Return-Index für jede Rohstoffgruppe und die Bildung von Paaren innerhalb jeder Gruppe. Die Paare werden dann auf der Grundlage der historischen Distanz gehandelt und es werden tägliche Positionen eingenommen, wenn die Preisdivergenz mehr als zwei Standardabweichungen beträgt. Bei der zweiten Strategie handelt es sich um das Risiko vor Gewinnmitteilungen, bei dem die Tendenz ausgenutzt wird, dass Aktien nach Gewinnmitteilungen tendenziell tendieren. Durch den Aufbau eines Long-Short-Portfolios können Anleger von dieser Tendenz profitieren. Während die Drift nach Gewinnmitteilungen bekannt ist, ist die Tatsache, dass Aktien auch vor Gewinnmitteilungen tendenziell tendieren, weniger bekannt.

  • 00:30:00 In diesem Abschnitt des Videos erklärt Radovan Vojtko das Konzept des Alpha-Zerfalls, bei dem es einen Unterschied in der In-Sample- und Out-of-Sample-Leistung einer Handelsstrategie gibt. Er erörtert auch das Problem von P-Hacking und Replikationsproblemen in der quantitativen Forschung, bei der Forscher möglicherweise eine große Anzahl von Variationen einer Handelsstrategie testen, bis sie etwas Interessantes finden, was zum Data Mining führt. Um dieses Problem zu vermeiden, schlägt Vojtko die Verwendung der Momentum-Anonymisierung vor, die es dem Händler ermöglicht, zu sehen, ob eine Strategie tatsächlich profitabel ist oder ob es sich nur um einen statistischen Zufall handelt. Trotz dieser Probleme gibt es verschiedene quantitative Handelsstrategien, die in wissenschaftlichen Arbeiten veröffentlicht wurden. Ein Beispiel ist eine Strategie zur Bekanntgabe von Gewinnen vorab, die eine jährliche Rendite von 40 % gezeigt hat.

  • 00:35:00 In diesem Abschnitt erörtert der Redner das weit verbreitete Missverständnis, dass quantitative Handelsstrategien nicht mehr funktionieren, sobald sie veröffentlicht und anderen bekannt sind, da sie von anderen Akteuren arbitriert werden. Untersuchungen von McLean und Pontiff zeigen jedoch, dass einige Strategien auch nach der Veröffentlichung noch funktionieren, wobei nach fünf Jahren der Veröffentlichung noch mehr als 40 % des Alphas verbleiben. Der Redner geht auch auf das Fortbestehen von Anomalien oder Faktoren im Handel ein und betont, dass jede Strategie beständig sein und in der Zukunft gute Ergebnisse erzielen kann, ein schlechtes Timing der Anleger jedoch zu geringeren Renditen führen kann. Der Redner warnt vor Datenausbaggerung oder Datenfischerei, einem Einsatz von Data Mining, der zu falschen Erkenntnissen führen kann, und betont, wie wichtig es ist, jede Strategie vor der Umsetzung gründlich zu testen.

  • 00:40:00 In diesem Abschnitt diskutiert Radovan Vojtko das Problem der Replikation in der akademischen Forschung, insbesondere bei quantitativen Handelsstrategien. Er erwähnt das Problem, dass Forscher Daten auswerten und nach Mustern suchen, ohne zuvor eine spezifische Hypothese aufgestellt zu haben, was zu statistischer Signifikanz ohne tatsächlichen praktischen Nutzen führt. Vojtko schlägt vor, den Grenzwert für die statistische Signifikanz auf 3,0 oder 3,5 zu erhöhen, um die gefundene Strategie so genau wie möglich zu prüfen und Out-of-Sample-Tests zu verwenden, um Portfolios von Aktienfaktoren auf der Grundlage veröffentlichter Daten zu vergleichen. Auf diese Weise sprechen die Daten für sich selbst bei der Ermittlung der Gewinner, was eine genauere Replikation und eine potenzielle Verwendung im zukünftigen Handel ermöglicht.

  • 00:45:00 In diesem Abschnitt erörtert Radovan Vojtko eine Strategie für unveröffentlichte Anomalien, bei der jedes Jahr Anomalien nach ihrer Leistung eingestuft werden und die leistungsstärksten im darauffolgenden Jahr gehandelt werden. Diese Strategie hilft, unrealistische, leistungsschwache oder Arbitrage-Strategien herauszufiltern und erhöht so die Chancen, durch akademische Forschung profitable Strategien zu entdecken. Allerdings ist die Strategie nicht zielsicher und es müssen Liquiditäts- und Transaktionskosten berücksichtigt werden. Darüber hinaus kann sich die Leistung aufgrund von Anomalien verringern und Voreingenommenheit und blinde Flecken müssen behoben werden. Vojtko empfiehlt, eine Datenbank mit weiteren Strategien aufzubauen und diejenigen mit der besten Leistung auszuwählen, um die Chancen zu erhöhen, profitable Strategien zu finden.

  • 00:50:00 In diesem Abschnitt des Videos beantwortet der Redner Fragen der Zuschauer und empfiehlt Ressourcen für die Suche nach quantitativen Handelsstrategien. Sie schlagen vor, einen Blick auf die Website „Social Science Network“ zu werfen, da es sich um eine Sammlung von Forschungsarbeiten aus den Sozialwissenschaften handelt, die nach Schlüsselwörtern wie „Pair Trading“ oder „Momentum Trading“ durchsucht werden können. Der Redner empfiehlt außerdem die eigene Website Quantpedia, die über einen kostenlosen Bereich mit über 60 gängigen und bekannten Strategien und einen Premium-Bereich mit einzigartigeren Strategien verfügt. Auf die Frage, mit welcher Strategie Anfänger beginnen sollten, schlägt der Redner vor, einen Blick auf die Asset-Cost-Picking- und Momentum-Strategien auf EPS zu werfen. Für die Berechnung des Beta-Zerfalls empfiehlt der Referent, sich auf die in der Veröffentlichung genannten wissenschaftlichen Arbeiten zu beziehen oder eine Google-Suche nach wissenschaftlichen Arbeiten zum Alpha-Zerfall durchzuführen.

  • 00:55:00 In diesem Abschnitt geht der Referent auf die empfohlenen Programmiersprachen für quantitative Finanzen ein und weist darauf hin, dass viele online verfügbar sind und dass es letztendlich auf die persönlichen Vorlieben ankommt. Sie stellen einen Link zu ihrer Website bereit, die mehrere Links zu rund 50 Backtestern enthält. Sie bevorzugen persönlich Python, beachten jedoch, dass andere genauso gültig sind. Sie schlagen vor, eine Sprache zu wählen, mit der Sie vertraut sind, und eine vorgefertigte Lösung aus bereitgestellten Quellen wie Tradestation, Ninjatrader oder Ami Broker zu verwenden, um mit dem Handel oder Testen zu beginnen. Darüber hinaus erwähnt der Redner, dass erfolgreicher algorithmischer Handel eine Zusammenführung von Fähigkeiten in Finanzen und Technologie erfordert, und er bietet Bildungsprogramme an, um Einzelpersonen in beiden Bereichen zu schulen.
Quantitative Finance | Classification of Quantitative Trading Strategy | Radovan Vojtko
Quantitative Finance | Classification of Quantitative Trading Strategy | Radovan Vojtko
  • 2017.07.12
  • www.youtube.com
In this informative video on Quantitative Finance, Radovan Vojtko provides a comprehensive quantitative trading tutorial on the classification of quantitativ...
 

Turning to data for a trading edge · Dave Bergstrom, quant trader



Turning to data for a trading edge · Dave Bergstrom, quant trader

In this video Dave Bergstrom, a successful quant trader, shares his journey in the trading world and emphasizes the importance of utilizing data analysis techniques to discover market edges. He emphasizes the need to avoid curve-fitting and over-optimization, recommends leveraging multiple resources for learning trading and programming, and stresses the significance of proper risk management and having realistic expectations. Bergstrom also discusses the potential decline of high-frequency trading and introduces his software package, Build Alpha, which assists traders in finding and generating profitable trading strategies.

Dave Bergstrom, initially a high-frequency trader, recounts his path from almost pursuing law school to becoming a trader. During his undergraduate studies, he delved into trading and sought information on platforms like finance Twitter and podcasts to learn about trading patterns and momentum stocks. Although he experienced early success, Bergstrom acknowledges that his early strategies and techniques differ significantly from his present trading methods. He highlights his use of data mining techniques during strategy development and introduces his software package, Build Alpha, which enables traders to employ various forms of analysis discussed in this episode.

Starting with his humble beginnings, Bergstrom reveals his initial foray into trading by selling counterfeit NFL jerseys and purses. Subsequently, he funded a trading account and engaged in trading stocks based on momentum and technical analysis, particularly chart patterns. However, he faced inconsistency and struggled to understand why his equity balance consistently returned to zero. With more experience, Bergstrom realized that the absence of a systematic approach hindered his ability to achieve consistent returns. It was only after he moved to Florida and worked as a trading assistant at a high-frequency trading firm that he discovered the realm of quantitative analysis, paving the way for consistency in his trading endeavors.

Bergstrom further discusses his transition to a role that demanded data analysis. To excel in this position, he self-taught programming and focused on objective technical analysis, as his firm believed in identifying anomalies or patterns in the data that could lead to profitable trades. He explains the process of testing and backtesting strategies before they can be employed, a journey that required several years of trial and error to achieve consistent success. Bergstrom's views on technical analysis have evolved, favoring objective analysis that utilizes data to identify patterns over subjective analysis reliant on intuition.

Programming plays a significant role in Bergstrom's trading journey, which he considers a superpower. Recognizing that Excel was insufficient for handling the vast amount of data in high-frequency trading, he learned programming to advance from a trading assistant role to a trade desk role. Bergstrom considers programming an excellent investment due to its asymmetrical gains and minimal risk. He advises aspiring programmers to explore different resources, remain diligent, and seek guidance from knowledgeable individuals to expedite the learning process.

Bergstrom emphasizes the importance of seeking multiple resources when learning to trade and program. He recommends utilizing platforms like Stack Exchange for programming and encourages learning multiple programming languages, such as Python, C++, and Java. While discussing his trading approach, Bergstrom identifies himself as a data miner and believes that numerous market edges can be discovered through data analysis. While some perceive data mining as prone to overfitting, he argues that it can be a valuable tool when steps are taken to prevent overfitting and over optimization.

Bergstrom sheds light on how he uncovers trading edges through data mining and employs a fitness function that searches for profitable strategies based on specific criteria. He highlights the importance of avoiding curve-fitting by employing techniques like maintaining a minimum number of trades and utilizing cross-validation. He explains that an edge refers to something with a positive expectation, which can be identified through data analysis. Ultimately, he seeks profitable strategies, even if they are not based on pre-existing hypotheses, but he places more confidence in strategies that align with logical reasoning.

Having a significant number of trades is crucial when testing a strategy, according to Bergstrom. He emphasizes the risks of curve-fitting and advises against optimizing parameters with look-back periods. Instead, he prefers using nonparametric metrics like counting measures. Furthermore, Bergstrom underscores the significance of market regimes, as well as volume and volatility, in understanding market behavior. He mentions a powerful graph he shared on Twitter that illustrates the importance of setting realistic expectations and employing Monte Carlo analysis to avoid under-allocating funds to a trading system.

Realistic expectations in trading are explored further, as Bergstrom emphasizes that even if a backtest shows a profitable strategy, it is crucial to understand that real-life results may differ. Tools like Monte Carlo simulations and variance testing assist traders in creating a distribution of possible outcomes and establishing realistic expectations for future trades. Bergstrom introduces his three laws of trading, with the first law favoring asymmetric risk-to-reward ratios. This means he prefers a lower winning percentage but a higher payoff, rather than the opposite.

Proper risk management takes center stage in Bergstrom's trading philosophy, particularly regarding bet sizing. He explains that it is not beneficial for a trader to have one trade with significantly more size than others within the same pattern or system. Bergstrom warns against overly investing in "exciting" trades, as it prevents the mathematical probabilities from playing out over a large number of trades, which is necessary for the law of large numbers to come into effect. He suggests that trading in a more conservative and consistent manner over a significant number of trades ensures the positive edge will manifest. While intraday and high-frequency trading align better with the law of large numbers, Bergstrom believes that daily time frames can also be effective if variance testing is satisfactory.

Bergstrom delves into the importance of strategy robustness across markets. While he acknowledges the value of creating strategies that work across multiple markets, he tends to shy away from those that generate insufficient trades. Regarding transaction costs and seeking higher profits in each trade, Bergstrom believes a balanced approach is attainable. The strategy should not be burdened by excessive transaction costs, but at the same time, it shouldn't be designed to generate an excessive number of trades. Shifting gears, Bergstrom addresses the common misconceptions surrounding high-frequency trading (HFT), stating that it has often been unfairly vilified due to people seeking a scapegoat. He firmly believes that HFT is beneficial and does not have predatory intentions.

Lastly, Bergstrom discusses the potential decline of high-frequency trading, which he attributes to increased competition and the exposure of strategies. The debate revolves around whether the decline is due to an oversaturated market or the monetary policies implemented by central banks, which do not support the two-sided market required for high-frequency trading. Bergstrom introduces his software package, Build Alpha, which empowers users to select signals and search for different strategies based on exit criteria and a fitness function. The software identifies the best strategies and generates tradeable code for each, enabling the creation of portfolios and thorough analysis. Interested individuals can visit the website buildalpha.com or contact Dave Bergstrom via email at David@buildalpha.com or on Twitter @Deeper_DB.

In conclusion, Dave Bergstrom's journey to becoming a successful trader showcases the importance of data analysis techniques in finding market edges. His emphasis on preventing curve-fitting, utilizing multiple resources for learning, practicing proper risk management, and maintaining realistic expectations provides valuable insights for aspiring traders. Furthermore, his thoughts on high-frequency trading and the introduction of Build Alpha demonstrate his commitment to advancing trading strategies and empowering traders through innovative software solutions.

  • 00:00:00 Dave Bergstrom, a high-frequency trader, discusses his journey from almost going to law school to trading. He started trading during undergrad and searched for information on the internet, such as finance Twitter and podcasts, to learn about trading patterns and momentum stocks. He had early success trading, but acknowledges that his early trading strategies and techniques he used then are much different from how he trades now. Dave also talks about how he uses data mining techniques during strategy development and suggests ways to reduce curve fitting. He even developed a software package called Build Alpha, which allows traders to perform many of the techniques and different forms of analysis discussed in this episode.

  • 00:05:00 Dave Bergstrom, a quant trader, shares his humble beginnings in trading, starting with making money through selling counterfeit NFL jerseys and purses. He then funded a trading account, initially trading stocks based on momentum and technical analysis, particularly chart patterns. However, he struggled with inconsistency and couldn't figure out why he kept returning to a zero equity balance. With more experience, Bergstrom realized that he didn't have a system and kept restarting, preventing any consistent returns. It was only when he moved to Florida and became a trading assistant at a high-frequency trading firm that he discovered quantitative analysis and found a new path to consistency in trading.

  • 00:10:00 Dave Bergstrom, a quant trader, talks about his transition into a role that required him to analyze data. Bergstrom had to teach himself programming and focus on objective technical analysis because the firm he worked for believed in searching for anomalies or patterns in the data that could lead to making profitable trades. He explains that there is a process of testing and backtesting before an edge or pattern can be used for trading, and he had to undertake trial and error over a few years to gain consistent success. Bergstrom's views on technical analysis have changed, and he believes that objective analysis, which uses data to determine patterns, is better than subjective analysis, which depends on intuition to identify patterns.

  • 00:15:00 Dave Bergstrom explains how he learned to program and why he views it as a superpower. He learned to program because he wanted to advance from a trainer assistant role to a trade desk role as he realized that Excel could not handle the amount of data involved in high-frequency trading. Bergstrom considers programming the best trade anybody can make because the gains are asymmetric while the risk is minimal. He advises anyone considering learning how to program to look at different resources, be diligent, and find people who can answer questions to help speed up the process.

  • 00:20:00 Dave Bergstrom discusses the importance of seeking multiple resources when learning how to trade and program. He recommends using Stack Exchange for programming and suggests learning multiple languages, such as Python, C++, and Java. When asked about his trading approach, Bergstrom admits to being a data miner and believes that there are many edges in the market just waiting to be discovered through data analysis. While some may view data mining as overfitting, he argues that it is a useful tool as long as one takes steps to prevent overfitting and over optimization.

  • 00:25:00 Dave Bergstrom talks about how he finds edges in trading through data mining and using a fitness function that searches for profitable strategies based on specific criteria. He emphasizes the importance of preventing curve fitting by using techniques such as minimum number of trades and cross-validation. He also explains that an edge is something that has a positive expectation, which can be identified through data analysis. Ultimately, he searches for profitable strategies even if it's not based on a pre-existing hypothesis, but if it makes logical sense, he puts more confidence in it.

  • 00:30:00 Dave Bergstrom discusses the importance of having a large number of trades when testing a strategy. He also mentions the risks of curve-fitting and how to avoid it by not optimizing parameters with look-back periods. Instead, he prefers using nonparametric metrics like counting measures. He also emphasizes the significance of market regimes as well as volume and volatility when understanding market behavior. Additionally, he explains a powerful graph he posted on Twitter that shows the importance of having realistic expectations and using Monte Carlo analysis to avoid under-allocating funds to a trading system.

  • 00:35:00 We learn about realistic expectations in trading. Even though a backtest may show a profitable strategy, it's important to understand that these results may not be the same in real life. Tools like Monte Carlo simulations and variance testing can help traders create a distribution of possible outcomes and determine realistic expectations for future trades. The guest speaker also introduces his three laws of trading, the first of which is that he prefers asymmetric risk to reward, meaning he'd rather have a lower winning percentage but a higher payoff than the opposite.

  • 00:40:00 Quant trader Dave Bergstrom emphasizes the importance of proper risk management in trading, specifically regarding the sizing of bets. He explains that it is not in a trader’s best interest to have one trade with significantly more size than the others in the same pattern or system. Bergstrom warns against betting too much on “exciting” trades, as it is not allowing the math to play out over a large number of trades, which is necessary for the law of large numbers to come into play. Bergstrom suggests that it is better to trade boringly and stay in the game over a large number of trades to ensure that the positive edge will play out. While intraday and higher frequency trading lend themselves better to the law of large numbers, Bergstrom believes that daily time frames can work as well if the variance testing is satisfactory.

  • 00:45:00 Dave Bergstrom discusses the importance of robustness across markets for a trading strategy. While he believes it is a good approach to create a strategy that works on multiple markets, he tends to shy away from something that doesn't generate sufficient trades. When asked about how transaction costs can impact a trading strategy and if it pays to look for more profit in each trade, Bergstrom believes that a happy medium is attainable, where the strategy does not kill you with transaction costs, but perhaps doesn't generate a thousand trades either. On a different note, Bergstrom claims that HFTs (high-frequency trading) are misunderstood and often been painted with a bad rap due to people looking for a scapegoat. He believes that HFT is beneficial, and there is nothing predatory about it.

  • 00:50:00 Dave Bergstrom discusses the potential decline of high-frequency trading as it becomes increasingly difficult to execute due to competition and exposure of strategies. There is debate about whether it is due to too many players in the market or the monetary policy laid out by the Fed and other central banks that do not support a two-sided market, which is what high-frequency trading requires. Bergstrom is working on a software package called Build Alpha which allows users to select from a list of signals and search for different strategies based on their exit criteria and fitness function. It then finds the best strategies and generates tradeable code for each, allowing for the creation of portfolios and analysis of the same. The website for Build Alpha is buildalpha.com, which users can reach Dave at David@buildalpha.com or on Twitter @Deeper_DB.
Turning to data for a trading edge · Dave Bergstrom, quant trader
Turning to data for a trading edge · Dave Bergstrom, quant trader
  • 2016.12.15
  • www.youtube.com
EP 103: Escaping randomness, and turning to data for an edge w/ Dave BergstromOn this episode, I’m joined by a quant trader who works at a high frequency tra...
 

Welche Programmiersprache für Quant- und HFT-Handel



Welche Programmiersprache für Quant- und HFT-Handel

Dieses Video bietet einen umfassenden Überblick über Programmiersprachen, die häufig im quantitativen Handel und im Hochfrequenzhandel (HFT) verwendet werden. Der Referent kategorisiert diese Sprachen in Prototyping-Forschungs- und interpretierende Skriptsprachen sowie in ältere kompilierte Sprachen wie Java, C#, C und C++. Vor- und Nachteile gängiger Sprachen zur Modellierung von Handelsideen, darunter Python, R, MATLAB und Microsoft Visual Studio, werden ausführlich besprochen. Darüber hinaus beleuchtet das Video wichtige Überlegungen bei der Auswahl einer Programmiersprache, wie z. B. Co-Location, kosteneffizientes Prototyping und Broker-Unterstützung. Es betont die Bedeutung des Einsatzes von Produktivitätstools und der Berücksichtigung des gesamten Handelssystems, einschließlich Risikomanagement und Portfoliomanagement.

Der Referent beginnt mit der Kategorisierung von Programmiersprachen in verschiedene Gruppen, basierend auf ihrer Eignung für die Prototyping-Forschung und interpretative Skripterstellung. Im Kontext des quantitativen Handels geht er insbesondere auf Python und MATLAB als beliebte Optionen für die Modellierung von Handelsideen ein. Er weist jedoch auf die Herausforderung der fragmentierten Versionen von Python (2.7 und 3.x) hin und hebt die Probleme mit der Kompatibilität und Leistung von R hervor. Einerseits bietet Python zahlreiche Optionen, die für Entwickler überfordernd sein können und eine zusätzliche Schulung erfordern. Andererseits weist R gewisse Einschränkungen hinsichtlich Kompatibilität und Leistung auf.

Im weiteren Verlauf befasst sich der Referent mit verschiedenen Programmiersprachen, die häufig im quantitativen Handel und im HFT-Handel verwendet werden. Python wird besprochen und seine Stärken in Bezug auf Datenpakete hervorgehoben, aber auch seine Nachteile wie langsamere Ausführung und eingeschränkte Möglichkeiten zur Auftragsverwaltung. Der Referent erwähnt außerdem MATLAB 2015 und Microsoft Visual Studio 2015, die die Integration von Python ermöglichen. Ältere kompilierte Sprachen wie Java, C#, C und C++ werden hervorgehoben, wobei Java als geeigneter Ausgangspunkt für Programmieranfänger empfohlen wird. C# wird für seine einfache Verständlichkeit und fortschrittlichen Techniken gelobt, während die optimale Leistung mit C# auf Windows-Umgebungen beschränkt ist.

Das Video befasst sich außerdem mit Programmiersprachen, die für den quantitativen und Hochfrequenzhandel geeignet sind, darunter Java, C/C++ und MATLAB. Java und C# sind für ihre einfache Integration in Datenbanken bekannt, es können jedoch Einschränkungen auftreten, da die Speicherbereinigung die Leistung beeinträchtigt. C und C++ werden als Sprachen mit optimaler Geschwindigkeit und Speicherkontrolle gepriesen, können jedoch komplexer zu erlernen sein. MATLAB gilt als leistungsstarke und vielseitige Plattform mit verschiedenen Toolboxen für Datenerfassung, Analyse, Handelsausführung und Risikomanagement. Hervorgehoben werden die fortschrittliche Unterstützung für Mathematik und maschinelles Lernen sowie die Möglichkeit, Code in C/C++ über MATLAB Coder zu generieren. Der Referent erwähnt auch die Möglichkeit, MATLAB mithilfe von MATLAB Production in einen leistungsstarken Webserver einzubetten.

Überlegungen zur Auswahl einer Programmiersprache im quantitativen und HFT-Handel werden ausführlich besprochen. Der Redner betont die Vorteile von Co-Location an Handelsbörsen, insbesondere im HFT-Handel, und nennt MathWorks als Anbieter, der Co-Location ermöglicht. Die Erschwinglichkeit der Lab Home Edition ab 150 US-Dollar wird als kostengünstige Prototyping-Umgebung erwähnt. Darüber hinaus wird die Wahl des Brokers als entscheidender Faktor für die Auswahl der Programmiersprache hervorgehoben. Interactive Brokers wird als Broker hervorgehoben, der ältere Sprachen wie Java, C++ und C# unterstützt. Der Redner rät Neulingen, Produktivitätstools zu nutzen, und betont die Notwendigkeit, die umfassenderen Aspekte des Handelssystems zu berücksichtigen, einschließlich Risikomanagement, Bewertung und Portfoliomanagement.

Insgesamt bietet das Video wertvolle Einblicke in die verschiedenen Programmiersprachen, die im quantitativen Handel und HFT verwendet werden, ihre Stärken und Grenzen sowie die Schlüsselfaktoren, die bei der Auswahl einer Sprache für Handelszwecke zu berücksichtigen sind. Es unterstreicht, wie wichtig es ist, das gesamte Handelssystem zu verstehen und geeignete Tools für effiziente und effektive Handelsabläufe zu nutzen.

  • 00:00:00 Der Referent diskutiert die verschiedenen Programmiersprachenoptionen für Quant- und Hochfrequenzhandel. Er kategorisiert die Sprachen in Prototyping-Forschungs- und interpretierende Skriptsprachen sowie in ältere kompilierte Sprachen. Der Redner behandelt Python und MATLAB, die typischerweise zur Modellierung von Handelsideen verwendet werden, und weist insbesondere auf das Splitterproblem in den beiden Hauptversionen von Python (2.7 und 3.x) hin. Der Redner gibt auch einen Einblick in die Vor- und Nachteile von R und Python und weist darauf hin, dass R einige Probleme mit der Kompatibilität und Leistung hat. Mittlerweile verfügt Python über zu viele Optionen, was für Entwickler verwirrend sein kann, und erfordert etwas mehr Schulung.

  • 00:05:00 Der Redner diskutiert mehrere Programmiersprachen, die für den Quant- und HFT-Handel verwendet werden, beginnend mit Python, das für seine Datenpakete bekannt ist, aber auch langsam ist und nur über begrenzte Möglichkeiten zur Auftragsverwaltung verfügt. Er erwähnt auch MATLAB 2015 und Microsoft Visual Studio 2015, die die Verwendung von Python ermöglichen, und geht dann zu Legacy-Sprachen wie Java, C#, C und C++ über, die allesamt kompilierte Sprachen sind. Er hebt Java als einen guten Ausgangspunkt für Programmierneulinge hervor, auch wenn es nur begrenzte Möglichkeiten bietet, es richtig und nativ auszuführen, und empfiehlt C# wegen seiner einfachen Verständlichkeit und fortgeschrittenen Techniken. Eine optimale Leistung mit C# ist jedoch nur unter Windows möglich.

  • 00:10:00 Das Video bespricht verschiedene Programmiersprachen, die für den quantitativen und Hochfrequenzhandel nützlich sind, darunter Java, C/C++ und MATLAB. Java und C# lassen sich problemlos in andere Datenbanken integrieren, die Leistung kann jedoch bei Garbage Collections eingeschränkt sein. C und C++ sind die leistungsstärksten Sprachen für Geschwindigkeits- und Speicherkontrolle, aber es kann schwierig sein, sie zu erlernen. MATLAB ist eine leistungsstarke und universelle Plattform mit vielen Toolboxen für Datenerfassung und -analyse, Handelsausführung und Wassermanagement. Es bietet außerdem erweiterte Unterstützung für Mathematik und maschinelles Lernen sowie die Möglichkeit, Code in C/C++ unter strikter Einhaltung durch den MATLAB-Codierer zu generieren. Es kann auch mit MATLAB Production in einen leistungsstarken Webserver eingebettet werden.

  • 00:15:00 Der Referent diskutiert Überlegungen zur Auswahl einer Programmiersprache für Quant- und HFT-Handel. Er erwähnt, dass MathWorks die Co-Location an einer Handelsbörse ermöglicht, was für den HFT-Handel von Vorteil ist. Anschließend spricht er über die Lab Home Edition als kostengünstige Prototyping-Umgebung ab 150 US-Dollar. Darüber hinaus betont er, dass die Wahl des Brokers großen Einfluss darauf hat, welche Sprache verwendet werden soll, da Interactive Brokers ältere Sprachen wie Java, C++ und C# unterstützt. Der Referent rät Neulingen, Produktivitätstools zu verwenden und sich des kleineren Teils des gesamten Systems bewusst zu sein, zu dem Risikomanagement, Bewertung und Portfoliomanagement gehören.
Which programming language for quant and HFT trading
Which programming language for quant and HFT trading
  • 2015.10.13
  • www.youtube.com
Download: Which programming language for quant and HFT tradingI will be forwarding all newbies with questions to this video and Powerpoint PPT http://quantla...
 

"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot



"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot

In the video titled "Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" presented by Max Margenot, the concept of statistical arbitrage is thoroughly explained. Margenot describes how statistical arbitrage involves creating trades based on imbalances identified through statistical analysis and a model of how the market should behave. The video focuses on pairs trading, which relies on fundamental statistical concepts such as stationarity, integration orders, and cointegration.

Margenot begins by introducing Quantopian, his company's platform that offers free statistics and finance lectures to assist individuals in developing trading algorithms. He then delves into the significance of stationarity, integration orders, and cointegration in pairs trading. Stationarity refers to all samples in a time series being drawn from the same probability distribution with the same parameters, often assumed to be normally distributed in financial applications. The augmented Dickey-Fuller test is introduced as a means to test for stationarity.

The speaker emphasizes the uncertainty associated with real-world data, highlighting the potential for false positives in hypothesis tests, particularly when dealing with subtle or sneaky relationships between variables. He demonstrates this by generating a pathological relationship in a time series that may go undetected by a hypothesis test. Margenot underscores the importance of cautious interpretation of results and reminds the audience that even visual inspection of a graph may not reveal the underlying statistical properties.

The limitations of modeling time series and the possibility of false positives are discussed. While a time series may exhibit mean-reverting behavior, it does not always indicate stationarity. Stationarity represents a scenario where a time series is both mean-reverting and follows a stationary, deterministic, and random distribution. The concept of integration orders is introduced, where integration of order zero does not imply stationarity, but stationarity implies integration of order zero. Cumulative sums are also explained, illustrating how multiple integrations of order zero result in higher orders of integration.

The assumption of stationary returns in finance and the difficulty of finding stationary time series are addressed. Returns are assumed to be normally distributed, indicating stationarity. Integrated order and difference notation are used to test for stationarity. The speaker notes that theoretically, price series should be integrated of order one due to their relationship with returns, which are integrated of order zero. An example is provided using pricing data from a company.

Margenot proceeds to explain the concept of cointegration, which involves the integration of time series in specific defined ways to yield a linear combination that is stationary. Although finding two integrated time series that are stationary together can be challenging, cointegration can be valuable when exploring price series that have a reasonable economic basis. The speaker emphasizes that bets can be placed based on the current value of the stationary spread, even without a specific time model for mean reversion.

The process of creating simulated data is demonstrated to illustrate spread calculation and estimation using linear regression. Margenot stresses that financial data is rarely as simple as subtracting one variable from another, necessitating a linear regression to estimate the relationship between the variables. The goal is to determine the beta value, which indicates the composition of the portfolio in terms of market returns. This information allows for long and short positions in pairs trading. An example involving a pair of alternative-energy securities is provided to illustrate the concept.

Constructing a linear regression between two potential securities for basic statistical arbitrage is explained. Margenot recommends finding two securities within the same sector that exhibit a relationship as a starting point to identify potential co-integrative relationships, which can indicate arbitrage opportunities. While stationarity between two securities is beneficial, the speaker emphasizes the need to trade on as many different independent bets as possible rather than relying solely on one pair.

The calculation of pairs and deals within statistical arbitrage is based on the log returns of the examined pairs. The linear regression between the log returns, known as the Engle-Granger method, is employed to determine whether the regression is stationary. Once a reasonable model of the world is established, a trader can gain an edge by having more information than others and making relatively informed bets. To actively trade and update the rolling spread, a rolling notion of the mean and standard deviation is necessary. Different methods such as moving averages and common filters can be utilized to iterate and enhance the trading strategy.

The speaker emphasizes that statistical arbitrage can be a simple or complex unit strategy. It involves identifying stationarity, cointegration, and relationships between pairs of stocks to trade on. The more information one has compared to others, the better they can capitalize on these relationships. Building a diversified portfolio requires independent bets that are not reliant on each other. The frequency of rebalancing depends on the individual pairs and the duration of stationarity observed in the data.

The video moves on to discuss the simulation of algorithmic trading with real-time data. The assumptions underlying linear regressions, such as heteroscedasticity, are mentioned as factors that can affect their viability. Cointegration is favored over correlation when modeling relationships between pairs of stocks, as it represents a stronger condition indicating stationarity. Bet sizes can be systematically determined using the mean and standard deviation of the hypothesized spread, unlike correlations, which may not lend themselves to systematic approaches.

In summary, the video provides a comprehensive explanation of statistical arbitrage and pairs trading. It covers essential concepts such as stationarity, integration orders, and cointegration. The importance of careful interpretation of statistical results and the need for independent bets are emphasized. The speaker highlights the role of linear regression in estimating relationships between pairs of stocks and the significance of mean reversion in identifying arbitrage opportunities. The video concludes by discussing the simulation of algorithmic trading and the considerations for constructing a diversified portfolio in statistical arbitrage.

  • 00:00:00 Max Margenot introduces the concept of statistical arbitrage and how it can be used to exploit market inefficiencies using statistical analysis. He explains that statistical arbitrage involves using a model of how the world should be and making trades based on the imbalance created by the statistical analysis. He then explains his company's platform, Quantopian, and how they offer free statistics and finance lectures to help people write trading algorithms. Margenot goes on to discuss the usage of stationarity, integration orders, and cointegration when building Paris trades, which are based on fundamental statistical concepts.

  • 00:05:00 The speaker discusses the concept of stationarity in time series data and the importance of it in statistical models, such as autoregressive and moving average models. The speaker notes that stationarity means that all samples in the time series data are drawn from the same probability distribution with the same parameters, and that this is typically assumed to be normally distributed in financial applications. The speaker introduces the augmented Dickey-Fuller test as a hypothesis test for stationarity and demonstrates its use on both stationary and non-stationary time series data.

  • 00:10:00 The speaker discusses the inherent uncertainty of working with real-world data as one is never sure of the data generating process that makes it behave in a particular way. This leads to the potential for false positives in hypothesis tests, especially with subtle or sneaky relationships between variables. The speaker demonstrates this by generating a pathological relationship with a time series that has a little periodic trend in the mean, which could possibly be missed by the hypothesis test. The speaker emphasizes the importance of care when interpreting results from hypothesis tests and points out that even looking at the graph may not reveal the underlying statistical properties.

  • 00:15:00 The speaker discusses the limitations of modeling time series and the possibility of false positives. He explains that although a time series may be mean-reverting (reverses back to the mean), it doesn't always imply stationarity. Instead, stationarity represents an instance of a time series being mean-reverting and following a stationary, deterministic, and random distribution. The speaker then introduces the notion of orders of integration, where integration of order zero doesn't imply stationarity, but being stationary implies integration of order zero. The discussion concludes with the concept of cumulative sums, where adding a series integrated of order zero multiple times produces a series integrated of order one and so on.

  • 00:20:00 The concept of integrated order and the assumption of stationary returns in finance are discussed. The speaker explains that it is difficult to find stationary time series, and that returns are assumed to be normally distributed, meaning they are stationary. To test for stationarity, the speaker demonstrates the use of integrated order and difference notation. Additionally, the speaker states that theoretically, price series should be integrated of order one due to their relationship with returns, which are integrated of order zero. An example is given using pricing data from a company.

  • 00:25:00 Margenot explains the concept of cointegration, which involves the integration of time series in certain defined ways resulting in the linear combination of those series that becomes stationary. While it is hard to find two integrated time series that are stationary together, cointegration can be useful in cases where there is a reasonable economic basis for exploring a particular set of price series. The stationary spread is used to bet on whether something will revert or not to the mean, and while there is no specific time model of how these reverts can happen, bets can still be placed based on the current value of the spread.

  • 00:30:00 Max Margenot explains the process of creating simulated data to illustrate the calculation of a spread and how to estimate it using a linear regression. He emphasizes that financial data is never as simple as having one instance of one variable minus one instance of the other, so the linear regression is necessary to estimate the relationship between the two variables. The goal is to find the beta value, which will tell us how the portfolio is made up of the returns of the market. By finding the beta value, we can determine what is a long and what's a short, allowing us to buy one X 2 and short beta X 1 in pairs trading. Margenot uses a specific example of a pair of alternative-energy securities to explain the concept.

  • 00:35:00 The speaker explains how to construct a linear regression between two potential securities for a basic statistical arbitrage. The speaker advises that finding two securities within the same sector that have some relationship to each other provides a good basis to jump off and see whether there is a co-integrative relationship that could indicate a potential arbitrage opportunity. The speaker cautions that while stationarity between two securities is great, it is only a forecast and that constructing an asset based on one pair is a terrible idea if one wants to trade pairs, emphasizing the need to trade as many different independent bets as possible.

  • 00:40:00 Max Margenot explains that the calculation of pairs and deals within statistical arbitrage is based on the log returns of the pairs being examined. The linear regression between the log returns, known as the Engle-Granger method, is used to determine whether the linear regression is stationary or not. Once a reasonable model of how the world is built, a bet can be placed based on some modicum of information more than someone else, giving an edge to make a relatively reasonable bet. To actively trade and update rolling spread, we need a rolling notion of the mean and standard deviation. Different methods can be used, such as moving averages and common filters, to iterate and improve trading strategy.

  • 00:45:00 The speaker explains how statistical arbitrage is a unit strategy that can be kept simple or made complex. The strategy involves identifying stationarity, cointegration, and relationships between pairs of stocks to trade on. The more information one has than others, the better they can trade on these relationships. As long as these relationships are independent from each other, the speaker recommends having as many independent bets as possible in order to build a diversified portfolio. Additionally, the speaker explains that the frequency of rebalancing depends on the individual pair and the duration of stationarity found in the data.

  • 00:50:00 The speaker explains how to simulate algorithmic trading with real-time data. He also talks about the assumptions that go into linear regressions, such as heteroscedasticity, which could make it not viable. The speaker shares his preference for cointegration over correlation when modeling relationships between pairs of stocks, as the former is a stronger condition that represents stationarity. He notes that bet sizes can be constructed systematically with the mean and standard deviation of the hypothesized spread, whereas this may not be done as systematically with correlations.
"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot
"Basic Statistical Arbitrage: Understanding the Math Behind Pairs Trading" by Max Margenot
  • 2017.07.25
  • www.youtube.com
This talk was given by Max Margenot at the Quantopian Meetup in Santa Clara on July 17th, 2017. To learn more about Quantopian, visit: https://www.quantopian...
 

Vollständiger Überblick über die praktische C++-Programmierung für Quant Financial und HFT



Vollständiger Überblick über die praktische C++-Programmierung für Quant Financial und HFT

Das Video bietet einen umfassenden Überblick über den Einsatz der C++-Programmierung im Finanzwesen und im Hochfrequenzhandel (HFT) und bietet wertvolle Einblicke in verschiedene Aspekte dieses Bereichs. Zunächst wird das Buch „Practical C++ Financial Programming“ besprochen und dessen Bedeutung für die Finanzbranche hervorgehoben. Das Buch behandelt wesentliche Themen wie festverzinsliche Aktien und bietet praktische Beispiele mit gut strukturierten Codeabschnitten. Es setzt ein gewisses Maß an Erfahrung mit der C++-Programmierung voraus und bietet Anleitungen zur effektiven Nutzung von C++-Vorlagen. Der Redner betont die ordnungsgemäße Nutzung von STL- und Boost-Bibliotheken sowie die Verwendung von Open-Source-Bibliotheken wie New Plot für das Plotten und QT für das Interface-Design.

Im weiteren Verlauf untersucht das Video die Verwendung von QT, einem leistungsstarken Tool zur Entwicklung von Benutzeroberflächen in C++. Während QT die Erstellung anspruchsvoller grafischer Schnittstellen ermöglicht, weicht es von der traditionellen C++-Methodik ab, und das Video beleuchtet diesen Aspekt. Anschließend befasst sich die Präsentation mit mathematischen Konzepten wie linearer Algebra, Interpolation und numerischer Integration und zerlegt sie in grundlegende Algorithmen und Gleichungen, um das Verständnis zu erleichtern. Darüber hinaus werden beliebte Algorithmen und Modellierungstechniken mit Relevanz für den Finanzbereich besprochen und Einblicke in deren Implementierung in C++ gegeben. Das Video betont die Bedeutung von Monte-Carlo-Simulationen für Finanzanwendungen und widmet diesem kritischen Thema ein Kapitel. Darüber hinaus wird die Verwendung von Lua und Python zur Erweiterung von Finanzbibliotheken untersucht, zusammen mit einem Überblick über die beliebtesten Programmiersprachen für HFT-Stellen.

Im weiteren Verlauf des Videos wird die Integration von Python und Lua mit C++ hervorgehoben und gezeigt, wie Lua effektiv mit Redis verwendet werden kann, indem die Einbettbarkeit in eine C++-Anwendung genutzt wird. Außerdem werden verschiedene C++-Techniken behandelt, darunter Multithreading mit Plaza und die Nutzung von C++ 11- und 14-Funktionen. Das Video dient als hervorragende Einführungsquelle für Personen, die sich mit der C++-Programmierung befassen, und geht auf einige der mit der Sprache verbundenen Speicherverwaltungsherausforderungen ein. Es bietet eine umfassende Roadmap zum Erlernen der C++-Programmierung und umfasst eine breite Palette von Optionen und Techniken, die den Benutzern zur Verfügung stehen.

Gegen Ende gibt der Redner eine positive Rezension eines kürzlich veröffentlichten Buches über C++-Programmierung für Finanz- und Hochfrequenzhandelsanwendungen. Dieses Buch behandelt speziell die neuen Funktionen, die in C++ 17 eingeführt wurden und sich mit Hardwareproblemen auf niedriger Ebene befassen, was es zu einer unschätzbar wertvollen Ressource für diejenigen macht, die sich für dieses Spezialgebiet interessieren. Obwohl der Redner angibt, nichts mit dem Buch zu tun zu haben, empfiehlt er es wärmstens als wertvolle Ergänzung zu den vorhandenen Ressourcen in diesem Bereich.

  • 00:00:00 Der Referent gibt einen Überblick über das Buch „Practical C++ Financial Programming“ und legt dabei den Schwerpunkt auf die Bedeutung von C++ in der Finanzbranche. Das Buch befasst sich mit festverzinslichen Aktien und bietet Beispiele mit einem nützlichen Format, das den Code in Abschnitte unterteilt. Das Buch geht davon aus, dass der Leser mit C++ vertraut ist und bietet Anleitungen zur effizienten Verwendung von C++-Vorlagen sowie die richtigen Möglichkeiten zur Verwendung von STL und Boost-Bibliotheken. Der Redner geht auch auf die Verwendung von Open-Source-Bibliotheken wie New Plot für Plots und QT für Interface-Design ein.

  • 00:05:00 Das Video diskutiert die Verwendung von QT, einem Tool zur Entwicklung von Benutzeroberflächen in C++. Während QT für die Erstellung anspruchsvoller grafischer Benutzeroberflächen nützlich ist, löst es sich von der traditionellen C++-Methodik. Das Video befasst sich dann mit mathematischeren Themen wie linearer Algebra, Interpolation und numerischer Integration, die alle zum leichteren Verständnis in grundlegende Algorithmen und Gleichungen unterteilt sind. Das Video behandelt außerdem beliebte Algorithmen und Modellierungstechniken und wie diese in C++ implementiert werden können. Das Buch enthält ein Kapitel über Monte Carlo, das für Finanzanwendungen von entscheidender Bedeutung ist. Abschließend werden im Video die Verwendung von Lua und Python zur Erweiterung von Finanzbibliotheken sowie die beliebtesten Sprachen für HFT-Stellen besprochen.

  • 00:10:00 Das Video behandelt die Integration von Python und Lua mit C++ und wie Lua mit Redis verwendet werden kann, insbesondere aufgrund seiner Fähigkeit, in eine C++-Anwendung eingebettet zu werden. Das Video untersucht außerdem verschiedene C++-Techniken, einschließlich Multithreading mit Plaza und die Verwendung von C++ 11- und 14-Funktionen. Das Video dient als hervorragende Einführung für diejenigen, die in die C++-Programmierung einsteigen möchten, und behandelt auch einige der mit C++ verbundenen Speicherverwaltungsherausforderungen. Insgesamt bietet das Video einen großartigen Leitfaden zum Erlernen der C++-Programmierung und deckt eine Vielzahl von Optionen und Techniken ab, die Benutzern zur Verfügung stehen.

  • 00:15:00 Der Redner gibt eine positive Bewertung eines neuen Buches über C++-Programmierung für Finanz- und Hochfrequenzhandelsanwendungen. Das Buch behandelt neue Funktionen in C++ 17, die sich mit Low-Level-Hardware befassen, und ist somit eine wertvolle Ressource für alle, die sich für diesen Bereich interessieren. Der Redner empfiehlt das Buch wärmstens und betont, dass er damit nichts zu tun hat, es aber für eine tolle Bereicherung hält.
Complete overview of practical C++ programming for quant financial and HFT
Complete overview of practical C++ programming for quant financial and HFT
  • 2015.06.23
  • www.youtube.com
A complete over view of this bookhttp://quantlabs.net/blog/2015/06/complete-overview-of-practical-c-programming-for-quant-financial-and-hft/
 

Grundlagen des algorithmischen Handels: Beispiele und Tutorial



Grundlagen des algorithmischen Handels: Beispiele und Tutorial

Dieses Video bietet einen umfassenden Überblick über den algorithmischen Handel und deckt verschiedene Aspekte wie Handelsstile, Märkte und Systeme ab. Der Redner erläutert zunächst die Grundlagen des algorithmischen Handels und betont dabei den Einsatz technischer Analysen auf der Grundlage von Preisbewegungen, Volumen und mathematischen Indikatoren. Es wird hervorgehoben, dass algorithmischer Handel die Ausführung von Geschäften und das Backtesting von Algorithmen mithilfe von Computern umfasst, was ihn von der traditionellen technischen Analyse unterscheidet.

Es werden verschiedene Arten des quantitativen/algorithmischen Handels eingeführt, darunter Hochfrequenzhandel, statistische Arbitrage und Trend/Mean-Reversion/Momentum-Handel. Der Referent konzentriert sich insbesondere auf Swing- und Day-Trading am Terminmarkt. Bei der statistischen Arbitrage werden Preisunterschiede durch den gleichzeitigen Kauf und Verkauf eines Vermögenswerts ausgenutzt, während beim Trend-/Mean-Reversion-/Momentum-Handel Computer eingesetzt werden, um gewinnbringende Richtungsgeschäfte auszuführen. Um diese Konzepte zu veranschaulichen, wird ein Beispiel eines algorithmischen Handelsprogramms mit der TradeStation-Software demonstriert. Das Programm ist darauf ausgelegt, an einem negativen Tag mit einer roten Kerze zu kaufen und am folgenden positiven Tag zu verkaufen, wobei ein Dollarziel und ein Stop berücksichtigt werden. Der Redner stellt die Integration dieses algorithmischen Programms in ein Diagramm der S&P 500 E-Minis für Backtesting-Zwecke vor.

Im nächsten Abschnitt wird eine Handelsstrategie auf TradeStation untersucht. Der Redner verwendet ein Diagramm, um Fälle zu veranschaulichen, in denen die Strategie basierend auf den Kerzenfarben erfolgreich oder erfolglos gewesen wäre. Sie zoomen heraus, um die von TradeStation generierten Leistungsberichte anzuzeigen, die Kennzahlen wie Nettogewinn, Gesamtgewinn, Gewinnrate, durchschnittliche Trades und Drawdown liefern. Die Optimierung der Strategie wird auch durch die Anpassung von Stopps und Zielen angegangen, um die Leistung mit unterschiedlichen Eingaben zu bewerten. Der Redner betont den zeitsparenden Aspekt des algorithmischen Handels, da er wertvolle Erkenntnisse liefern kann, deren Entdeckung sonst Monate gedauert hätte.

Vor- und Nachteile des algorithmischen Handels werden im folgenden Abschnitt besprochen. Zu den Vorteilen gehören weniger menschliche und emotionale Fehler, ein schnelles Backtesting von Handelsideen, eine schnellere Auftragseingabe und die Möglichkeit, mehrere Ideen zu testen und Portfolios aufzubauen. Allerdings werden auch Nachteile wie Selbstüberschätzung, Überoptimierung und die Unfähigkeit, geopolitische Ereignisse oder grundlegende Handelstechniken zu berücksichtigen, anerkannt. Während ein Algorithmus so programmiert werden kann, dass er den Handel an wichtigen politischen oder wirtschaftlichen Tagen vermeidet, funktioniert er im Allgemeinen unter allen Marktbedingungen.

Das Video schließt mit einer Zusammenfassung seines Inhalts. Es verdeutlicht den Unterschied zwischen quantitativem Handel und grundlegendem oder regulärem technischem Handel und betont die Leistungsfähigkeit des algorithmischen Handels anhand eines einfachen Algorithmusbeispiels. Für ein umfassendes Verständnis werden die Vor- und Nachteile des algorithmischen Handels noch einmal erläutert. Der Redner ermutigt die Zuschauer, sich bei Fragen an uns zu wenden, und äußert die Hoffnung, dass das Video informativ und hilfreich war.

  • 00:00:00 In diesem Abschnitt bietet der Dozent eine Einführung in den algorithmischen Handel, einschließlich der verschiedenen Handelsstile, Märkte und Systeme. Der algorithmische Handel konzentriert sich in erster Linie auf die technische Analyse und nutzt Preisbewegungen, Volumen und mathematische Indikatoren, um den Handel zu informieren. Der Dozent erklärt, dass die technische Analyse selbst nicht unbedingt algorithmisch ist, da beim algorithmischen Handel die Verwendung eines Computers zur Ausführung von Trades und zum Backtesting von Algorithmen erforderlich ist. Der Dozent identifiziert auch verschiedene Arten des quantitativen/algorithmischen Handels, einschließlich Hochfrequenzhandel, statistische Arbitrage und Trend/Mean-Reversion/Momentum-Handel, und erklärt, dass sich sein Unternehmen auf Swing- und Day-Trading auf dem Terminmarkt konzentriert.

  • 00:05:00 In diesem Abschnitt diskutiert der Redner zwei Arten des algorithmischen Handels: statistische Arbitrage und Trend/Mean-Reversion/Momentum-Handel. Bei der statistischen Arbitrage wird ein Vermögenswert gleichzeitig gekauft und verkauft, um von einer Preisdifferenz zu profitieren, während beim Trend-/Mean-Reversion-/Momentum-Handel Computer eingesetzt werden, um direktionale Geschäfte zu tätigen, um Gewinne zu erzielen. Anschließend stellt der Redner ein einfaches Beispiel eines algorithmischen Handelsprogramms unter Verwendung der TradeStation-Software vor. Der Code basiert auf dem Kauf bei einer roten Kerze an einem Abwärtstag und dem Verkauf am nächsten positiven Tag mit einem Dollarziel und einem Stop. Das Programm wird dann zu Backtesting-Zwecken einem Chart der S&P 500 E-Minis hinzugefügt.

  • 00:10:00 In diesem Abschnitt gibt der Redner ein Beispiel für eine Handelsstrategie auf TradeStation. Sie verwenden ein Diagramm, um Beispiele dafür zu zeigen, wann die Strategie basierend auf den Kerzenfarben funktioniert hätte und wann nicht. Der Sprecher zoomt dann heraus, um zu zeigen, wie TradeStation die Leistungsberichte ausfüllt und den Nettogewinn und den Gesamtgewinn der Strategie sowie die Gewinnrate, die durchschnittlichen Trades und den Drawdown angibt. Sie zeigen auch, wie Sie die Strategie optimieren können, indem Sie die Stopps und Ziele ändern, um zu sehen, wie die Strategie mit unterschiedlichen Eingaben funktioniert hätte. Der Redner betont, dass der Zweck der Verwendung von Algorithmen für den Handel darin besteht, Informationen bereitzustellen, deren Ermittlung ohne sie Monate gedauert hätte.

  • 00:15:00 In diesem Abschnitt werden die Vor- und Nachteile des algorithmischen Handels diskutiert. Zu den Vorteilen gehören die geringere Wahrscheinlichkeit menschlicher und emotionaler Fehler, die Möglichkeit, Handelsideen schnell zu testen, eine schnellere Auftragseingabe und die Möglichkeit, mehrere Ideen zu testen und Portfolios aufzubauen. Zu den Nachteilen zählen ein Gefühl von Selbstüberschätzung und Überoptimierung sowie der algorithmische Handel, der geopolitische Ereignisse oder grundlegende Handelstechniken nicht berücksichtigt. Während ein Algorithmus so programmiert werden kann, dass er an wichtigen politischen oder wirtschaftlichen Tagen keine Geschäfte annimmt, funktioniert er im Allgemeinen unter allen Marktbedingungen.

  • 00:20:00 In diesem Abschnitt fasst der Redner abschließend den Inhalt des Videos zusammen. Sie untersuchen zunächst den Unterschied zwischen quantitativem Handel und fundamentalem oder regulärem technischem Handel und geben dann ein Beispiel für einen einfachen Algorithmus, um die Leistungsfähigkeit des algorithmischen Handels zu demonstrieren. Auch die Vor- und Nachteile des algorithmischen Handels werden behandelt. Der Redner ermutigt die Zuschauer, sich bei Fragen an uns zu wenden und hofft, dass das Video hilfreich war.
Algorithmic Trading Basics: Examples & Tutorial
Algorithmic Trading Basics: Examples & Tutorial
  • 2016.11.18
  • www.youtube.com
In this video, we discuss what algorithmic trading is and provide an example with actual code for a very basic trading algorithm. Also discussed are the adva...