Quantitativer Handel - Seite 21

 

Hochfrequenzhandelsstrategien



Hochfrequenzhandelsstrategien

Vielen Dank, dass Sie mich heute eingeladen haben, meinen Artikel über Hochfrequenzhandelsstrategien vorzustellen. Mein Name ist Amy Kwan und ich komme von der University of Sydney. Dieses Papier wurde gemeinsam mit Michael Goldstein vom Babson College und Richard Phillip, ebenfalls von der University of Sydney, verfasst.

Der Zweck dieses Papiers besteht darin, einen Beitrag zur laufenden Debatte zwischen Regulierungsbehörden, Marktteilnehmern und Wissenschaftlern über die Auswirkungen des Hochfrequenzhandels (HFT) auf die Finanzmärkte zu leisten. Wir haben unterschiedliche Standpunkte zu diesem Thema gehört, einschließlich der Präsentation von Sean und der Diskussion gestern Abend.

Während es unterschiedliche Meinungen zu HFT gibt, argumentieren einige Leute, wie Michael Lewis, der Autor des Buches „Flash Boys“, dass der US-Aktienmarkt zu einem auf Geschwindigkeit basierenden Klassensystem geworden ist, in dem die wenigen Privilegierten für Nanosekunden Vorteil bezahlen andere sind sich des Werts dieser winzigen Zeitintervalle nicht bewusst. Andererseits behaupten Befürworter von HFT wie Ray Katsuyama, dass HFTs Handelssignale auffangen und Stamminvestoren ausnutzen können.

Frühe wissenschaftliche Erkenntnisse unterstützten im Allgemeinen HFT und den algorithmischen Handel, da davon ausgegangen wurde, dass sie die Liquidität erhöhen und traditionelle Marktqualitätskennzahlen wie geringere Spreads, zunehmende Tiefe und geringere kurzfristige Volatilität verbessern. Neuere Studien haben jedoch einige negative Aspekte von HFT festgestellt. HFTs können beispielsweise den Auftragsfluss anderer Investoren antizipieren und aus den Marktkräften Gewinne ziehen.

Darüber hinaus deuten aktuelle Studien wie die von Banker, Blending and Courageous und Canorkey darauf hin, dass HFTs zunächst gegen den Wind handeln, dann aber mit dem Wind handeln, wenn ein großer Handel voranschreitet. Um dies zu veranschaulichen, betrachten wir ein Szenario, in dem ein großer Pensionsfonds Apple-Aktien kaufen möchte. Sobald HFTs diesen Handel erkennen, können sie mit dem Institut konkurrieren, um in die gleiche Richtung zu handeln, da sie aufgrund des Kaufdrucks einen zukünftigen Preisanstieg antizipieren.

Obwohl es ein gewisses Verständnis für die Auswirkungen von HFT gibt, bleibt die Literatur unklar darüber, wie HFT tatsächlich gehandelt wird und die Finanzmärkte beeinflusst. Die meisten vorhandenen Beweise basieren auf Handelsabwicklungen, und über das Verhalten bei der Auftragserteilung in Australien ist wenig bekannt.

Um diese Lücke zu schließen, untersucht unsere Studie direkt HFT-Handelsstrategien durch Analyse der vollständigen Limit-Orderbuchdaten. Wir haben Zugriff auf detaillierte Informationen zu Auftragseinreichungen, -änderungen, -stornierungen und -geschäften für die 100 größten Aktien der ASX. Durch die Klassifizierung von Händlern in HFT-Firmen, institutionelle Händler und Einzelhandelsmakler wollen wir ihr Verhalten und die Auswirkungen auf die Marktdynamik verstehen.

Unsere wichtigsten Ergebnisse zeigen, dass HFTs hervorragend darin sind, das Auftragsbuch zu überwachen und bei Ungleichgewichten zu handeln. Wenn eine höhere Nachfrage nach dem Kauf oder Verkauf einer Aktie besteht, können HFTs diese Informationen erfolgreicher nutzen als andere Händlerkategorien. Darüber hinaus stellen wir fest, dass HFTs Liquidität auf der festen Seite des Orderbuchs bereitstellen, auch wenn diese nicht benötigt wird, während Nicht-HFTs aufgrund des strategischen Handelsverhaltens von HFTs unter einem eingeschränkten Zugang zum Orderbuch leiden.

Wir untersuchen auch die Einführung eines schnelleren Datenfeeds namens „it“ und stellen fest, dass HFTs nach seiner Implementierung in ihrem strategischen Handel noch effektiver werden. Nicht-HFT-Aufträge werden jedoch aus dem Limit-Auftragsbuch verdrängt, was für diese Händler zu geringeren Chancen auf eine erfolgreiche Ausführung führt.

Zusammenfassend trägt unsere Studie zum Verständnis von HFT-Handelsstrategien bei, indem sie die vollständigen Daten des Limit-Orderbuchs analysiert. Wir stellen fest, dass HFTs andere Händlerkategorien bei der Überwachung des Auftragsbuchs und dem Handel bei Ungleichgewichten übertreffen. Die Einführung eines schnelleren Datenfeeds erhöht ihren Handelsvorteil weiter. Diese Ergebnisse geben Aufschluss darüber, wie HFTs die Marktdynamik beeinflussen, und liefern wertvolle Erkenntnisse für Regulierungsbehörden, Marktteilnehmer und Wissenschaftler.

Nochmals vielen Dank für die Gelegenheit, unsere Forschung vorzustellen.

High frequency trading strategies
High frequency trading strategies
  • 2017.02.05
  • www.youtube.com
Speaker : Amy Kwan7th Emerging Markets Finance Conference, 201613th - 17th December 2016
 

Ciamac Moallemi: Hochfrequenzhandel und Marktmikrostruktur



Ciamac Moallemi: Hochfrequenzhandel und Marktmikrostruktur

Ein Ziel meiner Präsentation ist es, die Menschen mit der von Fakultätsmitgliedern durchgeführten Forschung vertraut zu machen. Bevor ich mich mit dem Hauptthema befasse, möchte ich einige Hintergrundinformationen zu meiner eigenen Arbeit als angewandter Mathematiker geben. Ungefähr die Hälfte meiner Zeit widme ich der Erforschung stochastischer Kontrollprobleme, bei denen es darum geht, Entscheidungen über einen längeren Zeitraum hinweg in Gegenwart von Unsicherheit zu treffen. Diese abstrakten mathematischen Probleme stellen erhebliche Herausforderungen dar, sind jedoch von grundlegender Bedeutung, da viele technische und geschäftliche Probleme ähnliche Merkmale aufweisen. Die andere Hälfte meiner Forschung konzentriert sich auf den eher angewandten Aspekt stochastischer Kontrollprobleme im Bereich Financial Engineering.

Aufgrund meiner früheren Erfahrung als Hedgefonds-Manager habe ich ein besonderes Interesse an optimalem Handel, Marktmikrostruktur und Hochfrequenzhandel auf den Finanzmärkten. Heute werde ich diese Themen diskutieren, um Einblicke in die Komplexität moderner elektronischer Märkte zu geben. Um die anstehenden Probleme einzuschätzen, ist es wichtig, die Hauptmerkmale der US-Aktienmärkte zu verstehen, die sich in den letzten fünf bis zehn Jahren erheblich weiterentwickelt haben.

In erster Linie dominiert der elektronische Handel den Markt, wodurch das traditionelle Bild der Händler auf dem Parkett der New Yorker Börse weitgehend irrelevant wird. Heutzutage findet der Handel hauptsächlich auf Computern statt, wobei der elektronische Handel der wichtigste Mechanismus für den Austausch ist. Eine weitere bemerkenswerte Veränderung ist die Dezentralisierung bzw. Fragmentierung des Handels. In der Vergangenheit wurde eine bestimmte Aktie vorwiegend an der Nasdaq oder der New Yorker Börse gehandelt. Mittlerweile gibt es jedoch mehrere Börsen, auf die jeweils ein erheblicher Prozentsatz des Aktienhandels entfällt.

Diese Börsen sind als elektronische Limit-Orderbücher organisiert, in denen Marktteilnehmer Kauf- und Verkaufsaufträge mit festgelegten Preisen aufgeben können. Wenn sich die Preise überschneiden, werden Geschäfte ausgeführt. Dies steht im Gegensatz zur historischen Händlermarkt- oder Spezialmarktstruktur der New Yorker Börse. Darüber hinaus finden rund 30 % des Handels an alternativen Handelsplätzen wie elektronischen Crossing-Netzwerken, Dark Pools und Internalisierung statt, was einen weiteren Beitrag zur Dezentralisierung des Handels leistet.

Eines der auffälligsten Merkmale moderner Märkte ist die zunehmende Automatisierung der Teilnehmer. Früher wickelte ein menschlicher Händler große Aufträge ab, doch mittlerweile haben Algorithmen und Hochfrequenzhandel die Oberhand gewonnen. Der algorithmische Handel ermöglicht es Anlegern, große Aufträge im Laufe der Zeit und über Börsen hinweg aufzuteilen, während Hochfrequenzhändler, die oft als Market Maker kategorisiert werden, für Liquidität sorgen. Diese jüngsten Trends haben den Markt komplexer gemacht und zu unvorhersehbaren Interaktionen zwischen algorithmischen Händlern und Hochfrequenzhändlern geführt.

Diese Entwicklungen haben sowohl auf politischer Ebene als auch für einzelne Teilnehmer wichtige Fragen aufgeworfen. Politische Entscheidungsträger und Regulierungsbehörden müssen die Vor- und Nachteile der derzeit komplexen Marktstruktur abwägen. Sie müssen sich auch mit Problemen wie dem Auftreten von Ereignissen wie dem berühmten Flash-Crash vom 6. Mai 2010 befassen, bei dem die Marktpreise aufgrund einer pathologischen Interaktion zwischen einem algorithmischen Händler und Hochfrequenzhändlern innerhalb weniger Minuten erheblich fielen.

Auf der Ebene der einzelnen Teilnehmer müssen Entscheidungsprobleme angegangen werden. Angesichts der Komplexität und Unvorhersehbarkeit des Marktes müssen die Teilnehmer den effektivsten Ansatz für ihre Handelsstrategien ermitteln. In diesem Zusammenhang habe ich Untersuchungen zu zwei spezifischen Problemen im Zusammenhang mit dem Hochfrequenzhandel und der Marktmikrostruktur durchgeführt: das Verständnis der Bedeutung der Latenz und die Untersuchung der Rolle von Dark Pools in Märkten.

Unter Latenz versteht man die Verzögerung zwischen der Entscheidungsfindung und der Ausführung einer Handelsentscheidung. Die Fähigkeit, schnell und mit geringer Latenz zu handeln, wird immer wichtiger. Um den Wert und die mit der Latenz verbundenen Kosten einzuschätzen, muss ihre Bedeutung für Handelsentscheidungen bewertet werden. Im Laufe der Jahre hat sich die Latenzzeit an den US-Aktienmärkten dramatisch verringert, sodass der Handel nun in Mikrosekunden erfolgt. Dieser technologische Fortschritt wurde durch die Nachfrage von Hochfrequenzhändlern und anderen, die eine schnellere Ausführung anstreben, vorangetrieben.

Das Verständnis der Bedeutung der Latenz wirft weitere Fragen auf. Ist eine geringe Latenz von Vorteil, um Entscheidungen mit den neuesten Informationen zu treffen? Bietet es einen Vorteil, schneller als die Konkurrenz zu sein, um Gewinne zu erzielen? Darüber hinaus priorisieren die Regeln und die Organisation von Börsen oft einen frühen Einstieg, was Vorteile für Händler mit Verbindungen mit geringerer Latenz schafft. Dies wirft Bedenken hinsichtlich der Gerechtigkeit und des gleichberechtigten Zugangs zu Marktchancen auf.

Um diese Fragen zu beantworten, umfasst meine Forschung die Entwicklung mathematischer Modelle, die die Dynamik des Hochfrequenzhandels und die Auswirkungen der Latenz auf Handelsstrategien erfassen. Durch die Simulation verschiedener Szenarien und die Analyse der Ergebnisse möchte ich Einblicke in die optimale Balance zwischen Geschwindigkeit und Genauigkeit bei Handelsentscheidungen geben. Diese Forschung kann Marktteilnehmern wie Hedgefonds oder institutionellen Anlegern dabei helfen, ihre Handelsalgorithmen und Infrastruktur so zu gestalten, dass sie ihre Leistung in einem hart umkämpften Umfeld maximieren.

Ein weiterer Bereich meiner Forschung konzentriert sich auf die Rolle von Dark Pools in modernen Märkten. Dark Pools sind private Handelsplätze, die es den Teilnehmern ermöglichen, große Geschäfte anonym und abseits des öffentlichen Marktes durchzuführen. Diese alternativen Handelsplätze erfreuen sich aufgrund ihres Potenzials, die Auswirkungen auf den Markt zu minimieren und die Ausführungsqualität für institutionelle Anleger mit erheblichem Handelsvolumen zu verbessern, zunehmender Beliebtheit.

Allerdings hat die Zunahme von Dark Pools Bedenken hinsichtlich der Markttransparenz und -gerechtigkeit geweckt. Kritiker argumentieren, dass die mangelnde Transparenz an diesen Handelsplätzen zu Informationsasymmetrien führen und sich negativ auf die Preisfindung auswirken kann. Darüber hinaus gab es Fälle, in denen Hochfrequenzhändler die mangelnde Vorhandelstransparenz in Dark Pools zu ihrem eigenen Vorteil ausnutzten.

In meiner Forschung untersuche ich die Auswirkungen von Dark Pools auf die Marktliquidität, die Preisbildung und das Verhalten der Marktteilnehmer. Durch die Entwicklung mathematischer Modelle und die Durchführung empirischer Analysen möchte ich die Vor- und Nachteile des Dark-Pool-Handels verstehen. Diese Forschung kann zur laufenden Debatte über die Regulierung und Aufsicht von Dark Pools beitragen und Marktteilnehmern helfen, fundierte Entscheidungen über ihre Handelsstrategien zu treffen.

Abschließend bietet meine heutige Präsentation einen Überblick über meine Forschung im Bereich Financial Engineering, wobei ich mich insbesondere auf Hochfrequenzhandel, Marktmikrostruktur, Latenz und Dark Pools konzentriere. Indem ich mich mit diesen Themen befasse, möchte ich die Komplexität moderner elektronischer Märkte und die Herausforderungen, die sie für Marktteilnehmer und Regulierungsbehörden mit sich bringen, beleuchten. Durch mathematische Modellierung, Simulationen und empirische Analysen möchte meine Forschung wertvolle Erkenntnisse liefern und zu den laufenden Diskussionen und Entwicklungen im Bereich der Finanzmärkte beitragen.

Darüber hinaus dreht sich ein weiterer Aspekt meiner Forschung um die Auswirkungen regulatorischer Maßnahmen auf die Finanzmärkte. Regulierungsbehörden spielen eine entscheidende Rolle bei der Gewährleistung der Marktintegrität, -stabilität und des Anlegerschutzes. Die Gestaltung und Umsetzung von Vorschriften kann jedoch unbeabsichtigte Folgen haben und die Marktdynamik beeinflussen.

Ein Schwerpunkt meiner Forschung ist die Untersuchung von Marktreaktionen auf regulatorische Ankündigungen. Durch die Analyse historischer Daten und die Durchführung von Ereignisstudien untersuche ich, wie Marktteilnehmer wie Händler und Investoren ihre Strategien und Positionen als Reaktion auf regulatorische Änderungen anpassen. Diese Forschung hilft beim Verständnis der unmittelbaren und langfristigen Auswirkungen von Vorschriften auf Marktliquidität, Volatilität und Gesamteffizienz.

Darüber hinaus untersuche ich die Wirksamkeit verschiedener Regulierungsmaßnahmen bei der Erreichung ihrer beabsichtigten Ziele. Ich untersuche zum Beispiel die Auswirkungen von Leistungsschaltern auf die Marktstabilität, bei denen es sich um Mechanismen handelt, die dazu dienen, den Handel bei extremen Marktbewegungen vorübergehend zu unterbrechen. Durch die Analyse historischer Marktdaten und die Durchführung von Simulationen beurteile ich, ob Leistungsschalter Marktabstürze wirksam verhindern oder verschlimmern.

Ein weiteres Interessengebiet ist die Untersuchung von Regulierungen zur Reduzierung systemischer Risiken auf Finanzmärkten. Dabei werden die Auswirkungen von Maßnahmen wie Kapitalanforderungen, Stresstests und Beschränkungen des Eigenhandels der Banken analysiert. Durch die Untersuchung der Auswirkungen dieser Vorschriften auf die Stabilität des Finanzsystems möchte ich Einblicke in ihre Wirksamkeit und mögliche unbeabsichtigte Folgen geben.

Darüber hinaus untersuche ich auch die Schnittstelle zwischen Technologie und Regulierung, insbesondere im Kontext neuer Technologien wie Blockchain und Kryptowährungen. Diese Technologien stellen die Regulierungsbehörden vor einzigartige Herausforderungen und Chancen, da sie traditionelle Finanzsysteme stören und neue Risiken mit sich bringen können. Meine Forschung in diesem Bereich konzentriert sich auf das Verständnis der regulatorischen Auswirkungen dieser Technologien und die Erforschung potenzieller Rahmenbedingungen, die Innovationen fördern und gleichzeitig Marktintegrität und Anlegerschutz gewährleisten können.

Meine Forschung im Bereich Financial Engineering umfasst ein breites Themenspektrum, darunter die Auswirkungen regulatorischer Richtlinien, Marktreaktionen auf regulatorische Änderungen und die Schnittstelle zwischen Technologie und Regulierung. Durch gründliche Analysen, mathematische Modellierung und empirische Studien möchte ich wertvolle Einblicke in die Funktionsweise der Finanzmärkte liefern und zur Entwicklung wirksamer und fundierter Regulierungsrahmen beitragen.

Ciamac Moallemi: High-Frequency Trading and Market Microstructure
Ciamac Moallemi: High-Frequency Trading and Market Microstructure
  • 2012.11.19
  • www.youtube.com
On November 13, 2012, Ciamac Moallemi, Associate Professor of Decision, Risk, and Operations at Columbia Business School, presented High-Frequency Trading an...
 

Kent Daniel: Preisdynamik



Kent Daniel: Preisdynamik

Ich freue mich, hier zu sein und möchte allen für ihr Kommen danken. Es ist toll zu sehen, dass alle so begeistert von diesem Thema sind. Heute werde ich eine spezifische quantitative Strategie besprechen, die häufig von Hedgefonds verwendet wird. Diese Strategie wird häufig mit erheblichem Einfluss umgesetzt und ergänzt die Themen, mit denen sich Professor Sunnah Reyes und Professor Wong befasst haben. Mein Ziel ist es, das Konzept des quantitativen Investierens vorzustellen und Einblicke in diese spezielle Strategie zu geben.

Darüber hinaus forsche ich zum Verständnis der Faktoren, die hinter der Preisdynamik stehen, und zum Auftreten dieses Phänomens auf Märkten. Ich behaupte, dass der Markt nicht ganz effizient ist, was vor allem auf die mangelhafte Informationsverarbeitung durch die Anleger zurückzuführen ist. Daher werde ich mich mit der Charakterisierung von Impulsen befassen und einige Gedanken zu den zugrunde liegenden Ursachen darlegen.

Kürzlich stieß ich im Bloomberg-Magazin auf einen Artikel über Cliff Asness, eine bemerkenswerte Persönlichkeit der Branche. Sein Unternehmen stand in der Vergangenheit vor allem aufgrund der Dynamik vor Herausforderungen. Ich finde, dass dies für unsere heutige Diskussion besonders relevant ist. Tatsächlich haben Asness und sein Unternehmen die Dynamik nicht aufgegeben. Zusätzlich zu ihren Hedgefonds-Bemühungen haben sie sogar einen Investmentfonds namens AQR Momentum Fund aufgelegt.

AQR verwendet sowohl bei seinen Investmentfonds als auch bei seinen Hedgefonds mathematische Regeln, um diversifizierte Portfolios mit einer bestimmten Ausrichtung aufzubauen. Bei Momentum konzentrieren sie sich darauf, in Gewinner zu investieren und Verlierer zu verkaufen. Heute werde ich diese Strategie genauer untersuchen. Bevor ich jedoch auf die Einzelheiten eingehe, möchte ich einige Erkenntnisse aus einer Forschungsarbeit von Asness, Moskowitz und Patterson teilen. Das Papier untersucht das Vorhandensein von Dynamik in verschiedenen Anlageklassen.

Ihren Erkenntnissen zufolge hat sich Momentum in verschiedenen Regionen, darunter den Vereinigten Staaten, dem Vereinigten Königreich und Kontinentaleuropa, in der Vergangenheit gut entwickelt. In Japan wurden jedoch nicht die gleichen positiven Ergebnisse erzielt. Darüber hinaus untersucht die Studie die Dynamik bei der Länderauswahl von Aktien, Anleihen, Fremdwährungen und Rohstoffen, wobei in jedem Bereich ein unterschiedlicher Erfolg erzielt wird.

Was also treibt die Dynamik an? Basierend auf meinen Vorarbeiten und Theorien dreht sich die überzeugendste Erklärung um die Informationsverarbeitung durch Anleger. Wenn Anleger neue Informationen erhalten, neigen sie dazu, einen Status-Quo-Bias an den Tag zu legen und davon auszugehen, dass die Dinge relativ unverändert bleiben. Obwohl sie als Reaktion auf die Informationen mit einer gewissen Preisbewegung rechnen, verstehen sie deren Auswirkungen nicht vollständig. Folglich schwankt der Preis leicht, aber es dauert Zeit, oft etwa ein Jahr, bis sich die Informationen vollständig in den Preisen widerspiegeln.

Wenn Sie im Kontext der Finanzmärkte eine mit Informationen verknüpfte Preisbewegung beobachten, ist es wahrscheinlich, dass die Dynamik anhält. Diese Beständigkeit der Preisbewegung steht im Einklang mit dem Konzept des Impulses in der Physik, bei dem ein Objekt, das sich mit einer bestimmten Geschwindigkeit in eine bestimmte Richtung bewegt, dazu neigt, sich weiter zu bewegen, sofern keine äußere Kraft auf es einwirkt.

Lassen Sie uns nun untersuchen, wie man eine Momentum-Strategie erstellt. Angenommen, Sie möchten eine einfache Momentum-Strategie implementieren, die dem Ansatz von AQR ähnelt. Hier ist eine Schritt-für-Schritt-Anleitung: Berechnen Sie beginnend zu Beginn eines bestimmten Monats die monatlichen Renditen aller an der NYSE, Amex und NASDAQ notierten Aktien in den letzten 12 Monaten bis vor einem Monat. Ordnen Sie die Aktien anhand ihrer Renditen und identifizieren Sie die oberen 10 % als Gewinner und die unteren 10 % als Verlierer. Erstellen Sie ein Portfolio mit den Gewinnern, gewichtet nach ihrer Marktkapitalisierung. Erstellen Sie in ähnlicher Weise ein Long-Short-Portfolio, indem Sie die Verliereraktien im Wert von 1 USD leerverkaufen. Gleichen Sie das Portfolio zu Beginn jedes Monats neu aus, indem Sie die Renditen und Rankings des Gründungszeitraums aktualisieren.

Diese Strategie führt zu einem Portfolio mit relativ geringem Umschlag, da die jüngsten Renditen wahrscheinlich ähnlich sind. Wenn Sie den Zeitraum jedoch auf 12 Monate verlängern, beginnen die Renditen erheblich zu divergieren.

Lassen Sie uns nun die Leistung dieser Strategie von 1949 bis 2007 bewerten. Eine Investition in Schatzwechsel bringt eine durchschnittliche Überrendite von 16,5 % pro Jahr, was ziemlich beachtlich ist. Dies deutet darauf hin, dass sich die Momentum-Strategie, Gewinner zu kaufen und Verlierer zu verkaufen, langfristig als äußerst profitabel erwiesen hat.

Nun fragen Sie sich vielleicht, ob diese Überrendite über verschiedene Zeiträume hinweg konsistent ist. Um dies zu untersuchen, unterteilen wir die Daten in verschiedene Jahrzehnte und sehen uns an, wie sich die Dynamik verhält. Hier sind die Überrenditen für jedes Jahrzehnt:

  • 1950er Jahre: 13,5 %
  • 1960er Jahre: 14,7 %
  • 1970er Jahre: 14,3 %
  • 1980er Jahre: 13,7 %
  • 1990er Jahre: 9,4 %
  • 2000er Jahre: 13,1 %

Wie Sie sehen, hat das Momentum in jedem Jahrzehnt zu positiven Überrenditen geführt, wenn auch in unterschiedlichem Ausmaß. Erwähnenswert ist, dass die Überrendite in den 1990er-Jahren im Vergleich zu anderen Jahrzehnten vergleichsweise geringer ausfiel, aber dennoch positiv war.

Warum bleibt Momentum weiterhin eine profitable Strategie? Eine Erklärung dafür ist, dass Anleger dazu neigen, auf neue Informationen zu wenig zu reagieren, was zu einer langsamen Preisanpassung führt. Infolgedessen schneiden Aktien mit positiven Renditen weiterhin besser ab, da ihre Preise nicht alle verfügbaren Informationen vollständig widerspiegeln. Diese verzögerte Anpassung bietet Anlegern die Möglichkeit, Gewinne zu erzielen, indem sie die Dynamik nutzen.

Es ist wichtig zu erwähnen, dass Momentum zwar eine konstante Rentabilität gezeigt hat, dies jedoch nicht bedeutet, dass es risikofrei ist. Wie jede Anlagestrategie bringt sie ihre eigenen Risiken und Herausforderungen mit sich. Die Marktbedingungen können sich ändern und die Wertentwicklung in der Vergangenheit ist keine Garantie für zukünftige Ergebnisse. Daher sind eine gründliche Analyse, ein Risikomanagement und eine laufende Überwachung von entscheidender Bedeutung bei der Umsetzung eines auf Momentum basierenden Anlageansatzes.

Zusammenfassend lässt sich sagen, dass die Momentum-Strategie, die den Kauf von Gewinnern und den Verkauf von Verlierern umfasst, in der Vergangenheit zu erheblichen Überrenditen an den Finanzmärkten geführt hat. Trotz unterschiedlicher Renditen in den verschiedenen Jahrzehnten ist Momentum insgesamt eine profitable Strategie geblieben. Allerdings sollten Anleger Vorsicht walten lassen und verschiedene Faktoren berücksichtigen, bevor sie diese Strategie in ihren Anlageansatz integrieren.

Kent Daniel: Price Momentum
Kent Daniel: Price Momentum
  • 2011.07.15
  • www.youtube.com
On November 9, 2010, Kent Daniel, professor of Finance and Economics at Columbia Business School, presented Price Momentum. The presentation was part of the ...
 

Algorithmischer Handel und maschinelles Lernen



Algorithmischer Handel und maschinelles Lernen

Okay, danke, Costas, dass du mich hast. Ich möchte auch Eric meinen Dank für seinen aufschlussreichen Vortrag aussprechen, der einen wertvollen Kontext für die Diskussion liefert, die ich präsentieren werde. Heute werde ich mich auf die Erfahrungen konzentrieren, die ich auf der anderen Seite dieser Börsen und im Umgang mit Hochfrequenzhändlern (HFTs) und anderen Gegenparteien gemacht habe. Ich möchte klarstellen, dass sich mein Vortrag nicht explizit mit der Spieltheorie befassen wird, da Costas mir versichert hat, dass sie akzeptabel sei. Ich werde mich jedoch mit praktischen Aspekten befassen und dabei auf meine Erfahrungen aus der Arbeit mit einer quantitativen Handelsgruppe an der Wall Street in den letzten 12 Jahren zurückgreifen.

Zuallererst möchte ich meinem Handelspartner By Vaca meinen besonderen Dank aussprechen, der Mitautor aller von mir besprochenen Arbeiten ist. Unsere Forschung und Erkenntnisse sind aus proprietären kommerziellen Kontexten innerhalb unserer Handelsgruppe hervorgegangen. Die Aspekte, die ich hervorheben werde, sind die nicht-proprietären Elemente, die wir im Laufe der Zeit wissenschaftlich interessant finden.

Die Wall Street ist zweifellos ein faszinierender Ort, sowohl technologisch als auch sozial. Aufgrund der Automatisierung und der Fülle an Daten kam es zu erheblichen Veränderungen. Diese Veränderungen haben zu zahlreichen Handelsherausforderungen geführt, die einen lernbasierten Ansatz, insbesondere maschinelles Lernen, erfordern. Da riesige Datenmengen in einem zeitlichen und räumlichen Maßstab verfügbar sind, der das menschliche Verständnis übersteigt, sind Algorithmen im Handel unverzichtbar geworden. Diese Algorithmen müssen anpassungsfähig sein und anhand historischer Daten, einschließlich aktueller Daten, trainiert werden, um sinnvolle Handelsentscheidungen treffen zu können.

In meinem Vortrag werde ich drei spezifische Problembereiche skizzieren, die beim algorithmischen Handel in modernen elektronischen Märkten auftreten. Diese Vignetten oder Fallstudien beleuchten die algorithmischen Herausforderungen und bieten Hinweise, wie diese mit neuen Techniken bewältigt werden können.

Die ersten beiden Probleme drehen sich um eine optimierte Ausführung. Bei der Ausführung eines Handels, unabhängig davon, ob ein bestimmtes Aktienvolumen gekauft oder verkauft wird, gibt es einen Kompromiss zwischen Unmittelbarkeit und Preis. Man kann sich dafür entscheiden, den Handel schnell auszuführen, was sich auf die Preise auswirkt, aber möglicherweise von flüchtigen Informationsvorteilen profitiert. Andererseits kann ein gemächlicherer Ansatz gewählt werden, der es dem Markt ermöglicht, sich über einen längeren Zeitraum dem gewünschten Preis anzunähern. Ich werde mich mit diesen Kompromissen befassen und konkrete Beispiele vorstellen, die die Herausforderungen veranschaulichen, mit denen elektronische Märkte konfrontiert sind.

Das dritte Problem betrifft algorithmische Versionen der klassischen Portfoliooptimierung, beispielsweise die Mittelwert-Varianz-Optimierung. Dabei geht es darum, ein diversifiziertes Portfolio zu halten, das die Rendite maximiert und gleichzeitig Risiken oder Volatilität berücksichtigt. Obwohl dieses Problem algorithmischer Natur ist, hängt es mit traditionellen Ansätzen zur Portfoliooptimierung zusammen.

Es ist erwähnenswert, dass die fortlaufende Double-Limit-Order-Auktion, wie von Eric zuvor beschrieben, als Hintergrund für diese Herausforderungen dient. Das Bild des Flash-Crashs und das Buch von Michael Lewis zum Hochfrequenzhandel unterstreichen die interessanten und dynamischen Zeiten, die wir derzeit an der Wall Street erleben. Ich beabsichtige zwar nicht, ein moralisches Urteil über Handelsaktivitäten, einschließlich des Hochfrequenzhandels, abzugeben, mein Ziel ist es jedoch, die algorithmischen Herausforderungen, mit denen moderne elektronische Märkte konfrontiert sind, aus der Perspektive einer quantitativen Handelsgruppe zu erläutern, die innerhalb eines traditionellen statistischen Aktienhandelsrahmens operiert.

Unsere Handelsgruppe ist auf den Handel mit Long- und Short-Aktien spezialisiert und umfasst eine breite Palette liquider Instrumente auf nationalen und internationalen Märkten. Zur Absicherung unserer Positionen setzen wir ausschließlich Futures ein und verzichten auf komplexe Derivate. Trotz des Handels auf relativ einfachen Märkten und Instrumenten haben die zunehmende Automatisierung und die Verfügbarkeit von Daten an der Wall Street zu einer Vielzahl von Handelsproblemen geführt, die einen Lernansatz erfordern, der häufig auf maschinellem Lernen beruht.

Ein Beispiel hierfür ist übrigens die häufige Beobachtung, dass, wenn ein Analyst seine Einschätzung einer Aktie ändert, andere Analysten dazu neigen, ihre Einschätzung derselben Aktie schnell hintereinander zu verbessern. Man muss also feststellen, ob es sich tatsächlich um neue Nachrichten handelt oder einfach nur um das Ergebnis anderer grundlegender Nachrichten, die auf den Markt kommen. In solchen Fällen ist es möglicherweise nicht ratsam, auf der Grundlage dieser Informationen zu handeln.

Nun zu Ihrer Frage, warum wir am Ende keine Zeit für Fragen lassen und stattdessen das Restvolumen kaufen wollen, darauf gibt es zwei Antworten. Erstens: Wenn wir ein Maklerunternehmen wie die Bank of America mit einem algorithmischen Handelsschalter sind, führen wir Geschäfte auf der Grundlage der Anweisungen des Kunden aus. Sie geben uns Anweisungen, wie viele Aktien wir innerhalb eines bestimmten Zeitraums kaufen sollen. Wir bitten während des Vorgangs nicht um eine Bestätigung. Zweitens haben wir unsere Strategien optimiert, um anhand der verfügbaren Informationen das richtige Kaufvolumen zu ermitteln. Dieses Volumen ist normalerweise das Maximum, das wir handeln können, ohne den Aktienkurs wesentlich zu beeinflussen. Obwohl es möglich ist, den von Ihnen vorgeschlagenen Ansatz umzusetzen, ziehen wir es vor, die Anzahl der beteiligten Parameter zu minimieren, um die Entscheidungsfindung in der komplexen Welt des Handels zu vereinfachen.

Was den Testprozess betrifft, führen wir in den sechs Monaten nach der Studie Live-Tests durch. Dadurch können wir die Leistung des Modells unter realen Marktbedingungen bewerten. Das Modell selbst nutzt jedoch während der Testphase historische Daten.

Wenn es darum geht, den Menschen unsere Politik zu erklären, verlassen wir uns in erster Linie auf einen empirischen Ansatz und nicht auf Augenmaß. Bei diesem speziellen Problem ist klar, was vernünftiges Verhalten ausmacht. Die Herausforderung entsteht, wenn man mit Strategien umgeht, die gut funktionieren, ohne klar zu verstehen, warum sie funktionieren. In solchen Fällen gehen wir das Problem manchmal aus einer anthropologischen Perspektive an und versuchen, die Gründe für die gleichbleibende Rentabilität bestimmter Branchen zu verstehen.

Wir sind uns bewusst, dass die Komplexität dessen, was wir lernen, Herausforderungen in Bezug auf die Interpretation mit sich bringt. Während wir in bestimmten Zustandsvariablen eine konsistente Vorhersagekraft erkennen können, ist es äußerst schwierig, die zugrunde liegenden Gründe auf granularer Ebene zu verstehen. Die mikrostrukturelle Natur der Finanzmärkte, insbesondere im Hochfrequenzhandel, bringt Volumina und Datengeschwindigkeiten mit sich, die das normale menschliche Verständnis übersteigen. Daher konzentrieren wir uns auf sorgfältige Schulungs- und Testmethoden, um eine gleichbleibende Leistung sicherzustellen.

In unseren Experimenten haben wir verschiedene Merkmale des Auftragsbuchs und deren Auswirkungen auf die Leistung untersucht. Beispielsweise hat sich die Einbeziehung der Geld-Brief-Spanne in den Zustandsraum als wertvoll für die Optimierung der Handelsausführung erwiesen. Allerdings bieten nicht alle Funktionen den gleichen Nutzen und einige Variablen können aufgrund einer Überanpassung sogar negative Auswirkungen auf die Leistung haben. Durch die Auswahl der informativsten Funktionen haben wir zusätzlich zu den 35 Prozent, die durch steuerungstheoretische Ansätze erzielt wurden, eine weitere Verbesserung um 13 Prozent erreicht.

Wir haben eine Lösung experimentell evaluiert, obwohl ich derzeit nicht die Zeit habe, mich mit den Einzelheiten zu befassen. Allerdings kann ich Liquidität anhand eines Cartoon-Modells vereinfacht erklären. Verschiedene Dark Pools, bei denen es sich um alternative Handelsplätze handelt, weisen zu unterschiedlichen Zeiten und für unterschiedliche Aktien unterschiedliche Liquiditätseigenschaften auf.

Wenn eine neue Börse entsteht, sei es ein Limit-Orderbuch oder ein Dark Pool, versucht sie oft, sich auf dem Markt zu etablieren, indem sie Vorzugsbehandlungen, Rabatte oder Gebühren für eine bestimmte Aktienklasse anbietet. Sie bewerben sich als bevorzugter Dark Pool für den Handel mit bestimmten Aktienarten. Dadurch werden an diesen Aktien interessierte Händler von diesem speziellen Dark Pool angezogen, wodurch Liquidität entsteht. Im Gegensatz dazu können andere Dark Pools andere Liquiditätsprofile aufweisen und möglicherweise nicht so viele Handelsaktivitäten anziehen.

Um dieses Konzept zu veranschaulichen, stellen Sie sich vor, dass jeder Dark Pool ein einzigartiges Liquiditätsprofil für eine bestimmte Aktie hat, dargestellt durch eine stationäre Wahrscheinlichkeitsverteilung. Die x-Achse stellt die Anzahl der Aktien dar, während die y-Achse die Wahrscheinlichkeit darstellt, in jedem diskreten Zeitschritt verfügbare Aktien zur Ausführung zu finden. Wenn wir unseren Handelsauftrag an einen Dark Pool übermitteln, werden aus dieser Verteilung eine oder mehrere Zahlen gezogen, die das Volumen der Kontrahenten angeben, die zu diesem bestimmten Zeitpunkt zum Handel bereit sind. Das ausgeführte Volumen wird durch das Minimum des gezogenen Volumens (s) und des angeforderten Volumens (vns) bestimmt, wobei bei Bedarf eine teilweise Ausführung gewährleistet ist.

Nun fragen Sie sich vielleicht, wie die Liquiditätskurve bei einer teilweisen Ausführung nicht abnehmen kann. Die Liquiditätskurve stellt lediglich die Wahrscheinlichkeit dar, innerhalb einer bestimmten Bandbreite verfügbares Volumen zu finden. Es zeigt, dass kleinere Volumina eher zur Ausführung verfügbar sind, während größere Volumina weniger wahrscheinlich sind. Eine teilweise Ausführung bedeutet lediglich, dass das ausgeführte Volumen geringer ist als das angeforderte Volumen, hat jedoch keinen Einfluss auf die Gesamtform der Liquiditätskurve.

Die Ausbreitung von Dark Pools ist ein interessantes Phänomen. Es wirft Fragen zum Marktgleichgewicht und zum Wettbewerb zwischen diesen Veranstaltungsorten auf. Es bleibt ungewiss, ob sich der Markt letztendlich konsolidieren wird, was zur Dominanz einiger weniger Dark Pools führen wird. Eine ähnliche Dynamik wurde bei fortlaufenden Doppelauktionen beobachtet, seit die Deregulierung der Finanzmärkte den gleichzeitigen Betrieb mehrerer Börsen ermöglichte. Die Regulierungslandschaft und die Fähigkeit von Startups, neue Mechanismen vorzuschlagen, tragen zur Komplexität der Marktstruktur bei.

Wenn wir den Zusammenhang zwischen dieser Forschung und Erics Artikel betrachten, können wir das Zusammenspiel verschiedener Marktstrukturen und Algorithmen und deren Auswirkungen auf die Marktstabilität und -fragmentierung untersuchen. Durch die Simulation von Szenarien, an denen mehrere Spieler ähnliche Algorithmen verwenden, können wir die Rechenergebnisse untersuchen und untersuchen, wie sich Marktstruktur und Algorithmenvielfalt auf Preise und andere regulatorische Belange auswirken. Diese Kombination von Forschungsbemühungen könnte wertvolle Erkenntnisse über die komplexe Beziehung zwischen Marktstruktur, algorithmischem Handel und Marktstabilität liefern.

Darüber hinaus können wir uns mit anspruchsvolleren Fragen befassen, beispielsweise mit der Interaktion zwischen verschiedenen Algorithmen und Marktstrukturen und wie diese die Marktdynamik beeinflussen. Durch die Untersuchung verschiedener Marktszenarien können wir die Eignung verschiedener Marktstrukturen und Algorithmen analysieren, um Stabilität zu erreichen und Fragmentierungsprobleme anzugehen.

Die Entwicklung der Finanzmärkte hat zur Automatisierung bestimmter Aspekte geführt und häufig nützliche menschliche Elemente ersetzt. Allerdings wurden neue elektronische Mechanismen eingeführt, um die Funktionalität zu reproduzieren und zu verbessern. Wenn wir diese Dynamik verstehen und unsere Strategien entsprechend anpassen, können wir uns in der Komplexität moderner Finanzmärkte zurechtfinden.

Mein Vortrag wird die algorithmischen Herausforderungen beleuchten, die mit dem Handel auf modernen elektronischen Finanzmärkten verbunden sind. Die drei Fallstudien, die ich vorstellen werde, verdeutlichen die Komplexität und Kompromisse bei der optimierten Ausführung und der algorithmischen Portfoliooptimierung. Auch wenn es mir aus zeitlichen Gründen möglicherweise nicht möglich ist, alle Themen vollständig abzudecken, hoffe ich, wertvolle Einblicke in diese Bereiche zu geben.

Während Simulationen und rechnerische Analysen Möglichkeiten zum Verständnis der potenziellen Ergebnisse des algorithmischen Handels bieten, ist es wichtig, ein Gleichgewicht zwischen abstrakter Modellierung und Relevanz für die reale Welt zu finden. Die Herausforderung besteht darin, herauszufinden, welche Details entscheidend sind und welche getrost übersehen werden können, ohne dass die praktische Relevanz verloren geht, insbesondere in der komplexen und sich ständig weiterentwickelnden Landschaft der Finanzmärkte.

Algorithmic Trading and Machine Learning
Algorithmic Trading and Machine Learning
  • 2015.11.20
  • www.youtube.com
Michael Kearns, University of PennsylvaniaAlgorithmic Game Theory and Practicehttps://simons.berkeley.edu/talks/michael-kearns-2015-11-19
 

Das Design von Finanzbörsen: Einige offene Fragen an der Schnittstelle von Wirtschaft und CS



Das Design von Finanzbörsen: Einige offene Fragen an der Schnittstelle von Wirtschaft und CS

Vielen Dank, Kostas. Dieser Vortrag wird für mich etwas unkonventionell sein, aber ich hoffe, dass er mit dem Geist dieser Konferenz und dem Thema der offenen Richtungen übereinstimmt. Es hängt mit der Gestaltung von Finanzbörsen zusammen, insbesondere mit der vorherrschenden Gestaltung des sogenannten Continuous-Limit-Order-Books. Ich beginne mit der Diskussion eines Papiers, an dem ich kürzlich mit Peter Crampton und John Shimm gearbeitet habe und das einen wirtschaftlichen Fehler im aktuellen Finanzaustauschdesign aufzeigt. Dieser Fehler trägt unserer Meinung nach zu den negativen Aspekten des Hochfrequenzhandels bei.

Der erste Teil des Vortrags befasst sich mit diesem Artikel, der einigen von Ihnen vielleicht bekannt sein dürfte, den meisten jedoch wahrscheinlich nicht. Es stellt ein wirtschaftliches Argument für einen alternativen Ansatz dar, der als zeitdiskreter Handel oder häufige Batch-Auktionen bezeichnet wird. Unser Artikel weist darauf hin, dass das kontinuierliche Limit-Orderbuch zwar weltweit weit verbreitet ist, aber einen strukturellen Fehler aufweist, der zu verschiedenen Problemen im Zusammenhang mit dem Hochfrequenzhandel führt. Ich werde eine komprimierte und leicht zugängliche Version dieses Teils präsentieren, wie er bereits mehrfach präsentiert wurde.

Im zweiten und dritten Teil des Vortrags geht es um offene Fragen und Forschungsrichtungen zur Gestaltung von Finanzbörsen. Diese Forschungsgebiete liegen an der Schnittstelle von Wirtschaftswissenschaften und Informatik. In den späteren Abschnitten werde ich einen zweiseitigen Abschnitt am Ende des Artikels des Quarterly Journal of Economics besprechen, der ein qualitatives Argument ohne Theoreme oder Daten für die rechnerischen Vorteile des zeitdiskreten Handels im Vergleich zum aktuellen Marktdesign präsentiert . Diese Diskussion wirft zahlreiche Fragen auf und soll zu weiteren Untersuchungen anregen.

Obwohl die letzten Teile des Vortrags weniger formell sind als ich es gewohnt bin, glaube ich, dass sie entscheidend sind, um offene Fragen aufzuwerfen und eine Agenda für zukünftige Forschung festzulegen. Dies steht im Einklang mit dem Zweck dieser Konferenz, die die Erforschung der Schnittstellen zwischen Wirtschaftswissenschaften und Informatik fördert und fruchtbare Richtungen für zukünftige Untersuchungen vorschlägt.

Lassen Sie uns nun näher auf die wirtschaftlichen Argumente für den zeitdiskreten Handel und seine Vorteile gegenüber dem kontinuierlichen Limit-Orderbuch eingehen, die ich näher erläutern werde. Das kontinuierliche Limit-Orderbuch ist ein Marktdesign, das täglich wirtschaftliche Aktivitäten in Billionenhöhe abwickelt. Es funktioniert auf der Grundlage von Limitaufträgen, die den Preis, die Menge und die Richtung (Kauf oder Verkauf) eines Wertpapiers festlegen. Marktteilnehmer können im Laufe des Tages Limitaufträge einreichen, stornieren oder ändern, und diese Nachrichten werden an die Börse gesendet.

Der Handel erfolgt, wenn eine neue Anfrage mit vorhandenen Aufträgen im Limit-Auftragsbuch übereinstimmt. Beispielsweise würde eine Kaufanfrage mit einem Preis, der mindestens einem ausstehenden Verkaufsangebot entspricht, zu einem Handel führen. Dies ist die Grundfunktion des kontinuierlichen Limit-Orderbuchs.

Unsere Untersuchungen legen jedoch nahe, dass dieses Marktdesign inhärente Mängel aufweist. Ein großes Problem ist das, was wir „Sniping“ nennen. Wenn sich öffentliche Informationen oder Signale ändern, passen Handelsunternehmen, die Liquidität bereitstellen, ihre Kurse entsprechend an. Sie stornieren ihre vorherigen Gebote oder Anfragen und ersetzen sie durch neue, die die aktualisierten Informationen widerspiegeln. Angenommen, ich gehöre zu diesen Handelsfirmen und passe meine Kurse an. Gleichzeitig senden auch andere, wie Thomas, Nachrichten an die Börse, um zu den alten Kursen zu handeln, bevor diese ersetzt werden.

Da der Markt diese Nachrichten kontinuierlich und in serieller Reihenfolge verarbeitet, wird es zufällig, welche Nachricht zuerst die Börse erreicht. Wenn mehrere Handelsfirmen gleichzeitig auf die neuen Informationen reagieren, besteht die Möglichkeit, dass eine Anfrage von Thomas oder einem anderen Teilnehmer vor meiner bearbeitet wird und sie zum alten Preis handeln können. Dieses Phänomen des Scharfschützenangriffs ist problematisch und hat mehrere Auswirkungen.

Erstens ermöglicht es mechanische Arbitragemöglichkeiten auf der Grundlage symmetrischer öffentlicher Informationen, was in einem effizienten Markt nicht der Fall sein sollte. Zweitens gehen die Gewinne aus solchen Arbitragemöglichkeiten zu Lasten der Liquiditätsbereitstellung. Da Scharfschützen erfolgreich Geschäfte zu alten Preisen ausführen, zögern Handelsfirmen, die Liquidität bereitstellen, ihre Kurse schnell anzupassen. Diese Zurückhaltung rührt von der Angst her, beschossen zu werden und potenzielle Gewinne zu verpassen. Folglich wird der Markt weniger effizient, da Liquiditätsanbieter weniger bereit sind, ihre Angebote als Reaktion auf neue Informationen zu aktualisieren.

Ein weiteres Problem beim fortlaufenden Limit-Orderbuch ist die Möglichkeit der Auftragserwartung. In diesem Szenario beobachten Händler das Eintreffen neuer Limit-Orders und passen ihre Quotes im Vorgriff auf zukünftige Geschäfte präventiv an. Dieses Verhalten kann zu einem Kaskadeneffekt führen, bei dem Händler ihre Kurse als Reaktion aufeinander ständig anpassen, was zu unnötiger Volatilität und Instabilität auf dem Markt führt.

Um diese Mängel zu beheben, schlägt unser Artikel ein alternatives Marktdesign vor, das als zeitdiskreter Handel oder häufige Batch-Auktionen bekannt ist. Bei diesem Design verarbeitet der Markt Aufträge nicht in kontinuierlicher Zeit, sondern in diskreten Zeitintervallen oder Chargen. Während jedes Stapels können Marktteilnehmer ihre Limitaufträge einreichen. Am Ende des Stapels wird der Markt freigegeben und die Geschäfte werden zu einem einzigen einheitlichen Preis ausgeführt.

Durch die Einführung des zeitdiskreten Handels beseitigen wir die Probleme des Sniping und der Auftragserwartung. Da alle innerhalb eines Stapels übermittelten Aufträge gleichzeitig verarbeitet werden, gibt es bei der Auftragsausführung keine Zufälligkeit. Händler können darauf vertrauen, dass ihre Aufträge zum gleichen Preis wie die anderer Teilnehmer innerhalb derselben Charge ausgeführt werden, was für Fairness sorgt und den Anreiz zum Sniping verringert.

Darüber hinaus fördern häufige Batch-Auktionen die Stabilität und reduzieren unnötige Volatilität auf dem Markt. Händler müssen ihre Kurse nicht mehr ständig an jede eingehende Order anpassen. Sie können sich stattdessen auf die Analyse von Informationen und das Treffen fundierter Handelsentscheidungen konzentrieren und wissen, dass ihre Aufträge am Ende des Auftrags zu einem fairen Preis ausgeführt werden.

Investitionen auf den Finanzmärkten erfordern oft eine gewisse Wartezeit, bis Transaktionen stattfinden. Unterschiedliche Personen können unterschiedlicher Meinung darüber sein, ob diese Wartezeit einen erheblichen oder einen unbedeutenden Kostenfaktor darstellt. Wenn Sie beispielsweise bei der Ausführung von Trades etwas schneller sind als ich, beispielsweise eine Millionstelsekunde schneller, könnte Ihnen das einen Vorteil bei der Reaktion auf Nachrichtenereignisse innerhalb dieses Zeitrahmens verschaffen. Andererseits könnte es sein, dass ich aufgrund meiner etwas langsameren Geschwindigkeit die Gelegenheit zum Handeln verpasse. Dieser Geschwindigkeitsvorteil wird häufig anhand des Verhältnisses der Geschwindigkeitsdifferenz (Delta) zum Chargenintervall (Tau) in einem kontinuierlichen Markt gemessen.

Wenn Sie in einem diskreten Markt etwas schneller sind als ich, können Sie mich aufgrund des auktionsbasierten Wettbewerbs immer in einem bestimmten Zeitintervall (Delta über Tau) „ausschalten“. Wenn Sie und mehrere andere Händler jedoch alle etwas schneller sind als ich, müssten wir an einer Auktion teilnehmen, um mit mir zu handeln, anstatt nur auf der Grundlage der Geschwindigkeit zu konkurrieren. Dies wirft die Frage auf, ob verschiedene Märkte diesen synchronisierten Taktansatz einheitlich übernehmen oder ob damit praktische Herausforderungen verbunden sind.

Es ist wichtig zu beachten, dass im aktuellen kontinuierlichen Markt das Gesetz eines Preises ständig verletzt wird, da Preisänderungen nicht gleichzeitig an verschiedenen Börsen stattfinden. Dieser Verstoß ist durch menschliche Beobachtung oder die verfügbaren Forschungsdaten nicht leicht erkennbar. Wenn jedoch mehrere Börsen gleichzeitig häufige Batch-Auktionen durchführen würden, wäre es möglich, Verstöße gegen das Gesetz eines einheitlichen Preises leichter zu erkennen. Das bedeutet nicht unbedingt, dass ein Ansatz besser oder schlechter ist, sondern vielmehr, dass die Daten klarere Erkenntnisse liefern würden.

Wenn eine einzelne Börse zu einem diskreten Markt übergehen würde, während andere kontinuierlich bleiben, würde diese Börse die Latenzarbitrage beseitigen und eine Steuer auf die Bereitstellung von Liquidität abschaffen. In wirtschaftlicher Hinsicht könnte dies dem diskreten Marktaustausch im Laufe der Zeit einen Vorteil verschaffen. Allerdings gibt es bei der Einführung eines neuen Marktplatzes Herausforderungen, regulatorische Unklarheiten und Eigeninteressen bestehender Börsen, die vom aktuellen Marktdesign profitieren.

Der Vorschlag von IEX, Latenz in jede Bestellung einzuführen und gleichzeitig einen kontinuierlichen Austausch aufrechtzuerhalten, funktioniert durch die Verzögerung sowohl eingehender als auch ausgehender Bestellungen um ein bestimmtes Zeitintervall. IEX überwacht Marktveränderungen innerhalb von Sekundenbruchteilen und passt die Preise entsprechend an. Eine potenzielle Schwäche ihres Designs besteht jedoch darin, dass sie auf den Zugriff auf Preisinformationen aus externen Quellen angewiesen ist. Dies wirft die Frage auf, ob der Ansatz von IEX zur Preisfindung beiträgt oder sich lediglich auf Informationen von anderswo stützt.

Andererseits kann die Einführung zufälliger Verzögerungen bei allen Bestellungen Sniping möglicherweise nicht wirksam entgegenwirken und zu einem unendlichen Nachrichtenverkehr führen. Zwar wurden mehrere Ideen zur Lösung des Problems vorgeschlagen, viele davon erwiesen sich jedoch bei der Analyse als unwirksam. Im Gegensatz dazu schlagen wir in unserem Artikel vor, zeitdiskrete Verarbeitung und Stapelverarbeitung als Lösung für den Fehler im Marktdesign zu schaffen, der Gewinne aus öffentlichen Informationen generiert und einen Geschwindigkeitswettlauf fördert.

Ein Aspekt, den wir in der Arbeit diskutieren, sind die rechnerischen Vorteile des zeitdiskreten Handels. Moderne Finanzmärkte sind mit verschiedenen Rechenproblemen konfrontiert, wie zum Beispiel Flash-Crashs und Börsenstörungen. Diskrete Zeit bietet im Vergleich zu kontinuierlicher Zeit eine einfachere Berechnung und bietet spezifische Vorteile für Börsen, algorithmische Händler und Regulierungsbehörden.

Bei Börsen kann die kontinuierliche Verarbeitung zu Rückstandsproblemen führen, da Algorithmen in Zeiten hoher Aktivität unsicher über den Stand der Aufträge und des Marktes sind. Im Gegensatz dazu können zeitdiskrete Batch-Auktionen effizienter abgewickelt werden und bieten ein Zeitpolster im Vergleich zur ungünstigsten Verarbeitungszeit. Dies verringert die Unsicherheit und die Rückstandsprobleme, mit denen Börsen konfrontiert sind.

Diskrete Zeit vereinfacht auch die Nachrichtenverarbeitung für den Austausch und macht die Priorisierung der Verbreitung verschiedener Nachrichtentypen überflüssig. Dies verringert die Möglichkeit, Informationsasymmetrie auszunutzen. Darüber hinaus vereinfacht die diskrete Zeit die Programmierumgebung für den Austausch, wodurch möglicherweise das Auftreten von Störungen reduziert und die Gesamtsystemstabilität verbessert wird.

Ein weiterer rechnerischer Vorteil des zeitdiskreten Handels besteht darin, dass er die Analyse und Modellierung algorithmischer Strategien vereinfacht. Auf zeitkontinuierlichen Märkten stehen algorithmische Händler vor der Herausforderung, ihre Reaktion auf eingehende Daten in Echtzeit zu optimieren. Sie müssen schnell Entscheidungen treffen und dabei die sich ändernden Marktbedingungen berücksichtigen. Dieser Kompromiss zwischen Geschwindigkeit und Intelligenz ist ein komplexes Problem, das es zu lösen gilt.

Beim zeitdiskreten Handel ermöglicht die Stapelverarbeitung von Daten jedoch algorithmischen Händlern, ein festes Intervall für die Analyse und Entscheidungsfindung zur Verfügung zu haben. Wenn das Batch-Intervall beispielsweise auf 100 Millisekunden eingestellt ist, haben Händler den Luxus, die ersten 100 Millisekunden einer gründlichen Analyse zu widmen, ohne den Druck einer sofortigen Ausführung zu haben. Dies kann zu ausgefeilteren und genaueren Entscheidungsprozessen führen.

Aus diesem Rechenvorteil ergeben sich Forschungsfragen. Wie können algorithmische Händler bei ihrer Entscheidungsfindung das richtige Gleichgewicht zwischen Geschwindigkeit und Intelligenz finden? Sind mit der Bevorzugung von Geschwindigkeit gegenüber Intelligenz auf dem Markt negative externe Effekte verbunden? Verbessert das zeitdiskrete Framework die Genauigkeit der Preisbildung im Vergleich zum zeitkontinuierlichen Handel?

Für Aufsichtsbehörden bietet der zeitdiskrete Handel den Vorteil einer saubereren Papierspur. In zeitkontinuierlichen Märkten kann die Synchronisierung von Uhren und die Anpassung von Zeitstempeln zu Komplexitäten bei der Rekonstruktion der Abfolge von Ereignissen führen. Es wird schwierig, die chronologische Reihenfolge der Aktionen in verschiedenen Märkten zu bestimmen. Im Gegensatz dazu vereinfacht der zeitdiskrete Handel diesen Prozess und erleichtert die Erstellung einer klaren und genauen Aufzeichnung der Marktaktivitäten.

Die potenziellen Vorteile einer sauberen Papierspur im zeitdiskreten Handel sind eine offene Frage. Intuitiv kann eine gut dokumentierte und leicht nachvollziehbare Marktaktivität die Transparenz und Verantwortlichkeit verbessern. Es kann die Marktüberwachung verbessern und den Regulierungsbehörden dabei helfen, manipulative oder illegale Handelspraktiken effektiver zu erkennen und zu bekämpfen.

Unsere Forschung beleuchtet die wirtschaftlichen Mängel im vorherrschenden Design kontinuierlicher Limit-Orderbücher und stellt einen alternativen Ansatz vor, der als zeitdiskreter Handel oder häufige Batch-Auktionen bezeichnet wird. Dieses alternative Design geht auf Probleme wie Sniping und Auftragserwartung ein und fördert Fairness, Stabilität und Effizienz im Finanzaustausch. Durch die Untersuchung dieser offenen Fragen und Forschungsrichtungen wollen wir weitere Untersuchungen zur Gestaltung von Finanzbörsen anregen und die Bereiche Wirtschaftswissenschaften und Informatik verbinden, um die Marktfunktionalität und -leistung zu verbessern.

Der zeitdiskrete Handel bietet mehrere Rechenvorteile gegenüber dem zeitkontinuierlichen Handel. Es vereinfacht die Nachrichtenverarbeitung für den Austausch, reduziert Rechenengpässe und ermöglicht ausgefeiltere algorithmische Strategien. Darüber hinaus bietet es den Regulierungsbehörden eine sauberere Dokumentation und verbessert die Marktüberwachung und Transparenz. Es bedarf jedoch weiterer Forschung, um die Auswirkungen und potenziellen Nachteile des zeitdiskreten Handels in der Praxis zu untersuchen.

The Design of Financial Exchanges: Some Open Questions at the Intersection of Econ and CS
The Design of Financial Exchanges: Some Open Questions at the Intersection of Econ and CS
  • 2015.11.20
  • www.youtube.com
Eric Budish, University of ChicagoAlgorithmic Game Theory and Practicehttps://simons.berkeley.edu/talks/eric-budish-2015-11-19
 

ChatGPT und maschinelles Lernen im Handel



ChatGPT und maschinelles Lernen im Handel

Der Moderator befasst sich mit dem Thema der Verwendung von NLP-Modellen (Natural Language Processing) wie ChatGPT in der Handelsbranche und betont deren Fähigkeit, Textquellen wie Nachrichtenartikel, Social-Media-Beiträge und Finanzberichte zu analysieren und zu verstehen. Insbesondere ChatGPT, ein leistungsstarkes Sprachmodell, eignet sich gut für die Analyse großer Mengen an Finanzdaten und die Generierung natürlich klingender Antworten, sodass Händler Gespräche über Handelsmöglichkeiten führen können.

Die Finanzwelt hat hohe Erwartungen an ChatGPT und erwartet seinen Beitrag zur Entwicklung und Optimierung von Handelsstrategien. Der Referent erläutert weiter die Unterschiede zwischen künstlicher Intelligenz (KI), maschinellem Lernen (ML) und Deep Learning und betont, dass maschinelles Lernen eine Teilmenge der KI ist, die Techniken einsetzt, um Maschinen beizubringen, menschliches Verhalten zu simulieren und intelligente Entscheidungen zu treffen.

Anschließend erörtert der Moderator den typischen Arbeitsablauf von ML im Handel. Sie erklären, dass ML es Maschinen ermöglicht, anhand einer Reihe von Schritten aus Daten zu lernen und Vorhersagen zu treffen. Zunächst werden Daten gesammelt und vorverarbeitet, um deren Qualität und Relevanz sicherzustellen. Als nächstes werden Funktionen entwickelt, um Rohdaten in aussagekräftige Attribute umzuwandeln, die Maschinen verstehen können. Anschließend werden die Daten in Trainings- und Testsätze unterteilt und mithilfe von ML-Algorithmen ein Modell erstellt. Abschließend wird das Modell anhand neuer Daten getestet. Wenn es zufriedenstellend funktioniert, kann es für Vorhersagen verwendet werden, um den Handelsprozess zu erleichtern.

Um die Anwendung von ML zu veranschaulichen, liefert der Referent ein Beispiel für die Vorhersage der Höchst- und Tiefstpreise eines Vermögenswerts, wie zum Beispiel Gold, für den nächsten Handelstag. Diese Vorhersage kann Händlern sehr dabei helfen, fundierte Entscheidungen zu treffen und ihre Handelsstrategien zu verbessern.

Darüber hinaus untersucht der Moderator, wie ChatGPT als wertvolles Werkzeug bei der Lösung von Handelsproblemen dienen kann, beispielsweise bei der Erstellung eines linearen Regressionsmodells zur Vorhersage des Goldpreises. Sie vergleichen den Ansatz von ChatGPT mit einem umfassenderen quantitativen Ansatz, der Datenerfassung, Bereinigung, Modellerstellung, Pipeline-Entwicklung, Live-Handel und kontinuierliche Verbesserung umfasst. Es wird ein Beispiel für ein Regressionscode-Notizbuch für maschinelles Lernen geteilt, in dem die vier wichtigsten Schritte zur Lösung des Problems beschrieben werden: Datenvorbereitung, Vorverarbeitung, Preisvorhersage sowie Strategie- und Leistungsanalyse. Während ChatGPT bei der Ideengenerierung hilfreich sein kann, betont der Moderator die Notwendigkeit eines differenzierten Verständnisses jedes Konzepts und einer sorgfältigen Überlegung, um Fehler zu vermeiden.

Es werden auch die Einschränkungen und Risiken angesprochen, die mit der Verwendung von ChatGPT im ML-basierten algorithmischen Handel verbunden sind. Der Referent weist auf potenzielle Herausforderungen hin, darunter fehlende Fachkenntnisse, begrenzte Trainingsdaten und Probleme bei der Interpretierbarkeit. Sie warnen davor, sich bei Handelsentscheidungen ausschließlich auf ChatGPT zu verlassen, und betonen, wie wichtig es ist, Genauigkeitsprüfungen über verschiedene Finanzperioden hinweg durchzuführen.

Darüber hinaus erläutert der Moderator die Ergebnisse einer Umfrage zur Fähigkeit von ChatGPT, Code präzise zu generieren. Die Mehrheit der Zuhörer (74 %) erkennt zu Recht, dass ChatGPT eine angemessene Genauigkeit bieten kann, sich jedoch nicht für komplexe Programmieraufgaben eignet, die Fachkenntnisse in diesem Bereich erfordern. Zur Veranschaulichung des Prozesses demonstriert der Moderator, wie man Daten mit von ChatGPT generiertem Python-Code in Trainings- und Testsätze aufteilt. Sie betonen die korrekte Reihenfolge der Daten, insbesondere im Zusammenhang mit Zeitreihendaten im Handel.

Die Bewertung ML-basierter Handelsalgorithmen durch Backtesting und Strategieanalysen wird als entscheidender Schritt bei der Bewertung ihrer Leistung hervorgehoben. Der Referent betont die Notwendigkeit einer eingehenden Analyse unter Verwendung verschiedener Kennzahlen wie der Sharpe-Ratio, der jährlichen Rendite und der Volatilität der Renditen, um Einblicke in Trades und die Gesamtleistung zu gewinnen. Als erster Schritt zur Bewertung der Wirksamkeit des Algorithmus wird ein Vergleich zwischen den Renditen eines Handelsalgorithmus und einer Buy-and-Hold-Strategie dargestellt.

Darüber hinaus präsentiert der Moderator ein Beispiel einer profitablen Handelsstrategie und betont die Bedeutung der Visualisierung und Analyse von Daten im Handelsprozess. Strategieanalysen, einschließlich jährlicher und kumulierter Renditen, sind entscheidend für die Bewertung des Erfolgs einer Strategie.

Der Moderator wechselt den Gang und geht auf die Einschränkungen der Verwendung von GPT für die Finanzanalyse im Handel ein. Das Publikum nahm zuvor an einer Umfrage teil, wobei die Mehrheit der Meinung war, dass eine angemessene Genauigkeit eine Überprüfung der Fakten erfordert und dass GPT möglicherweise nicht für Finanzanalysen geeignet ist. Um diese Einschränkung zu veranschaulichen, bittet der Moderator GPT, die Jahresabschlüsse von Apple und Microsoft für 2020 zu vergleichen. GPT liefert jedoch eine ungenaue Antwort und verdeutlicht seine Grenzen als Generatormodell, dem es an Domänenkompetenz mangelt. Der Referent unterstreicht, wie wichtig es ist, sich finanzbezogenes Wissen anzueignen, Bücher zu lesen und Fakten zu prüfen, bevor man ML-Algorithmen wie GPT auf den Handel anwendet.

Der Referent ist sich der Bedeutung domänenbezogener Kenntnisse im Finanzwesen bewusst und schlägt vor, Kurse zu belegen, um Fachwissen zu erwerben. Dieses Fachwissen ermöglicht es Händlern, maschinelle Lerntools wie ChatGPT besser zu nutzen. Um dies zu unterstützen, bietet der Moderator kostenlosen Zugang zu vier Notizbüchern aus einem Schulungskurs zum Thema „Handel mit maschinellem Lernen“ an, sodass die Zuschauer ein tieferes Verständnis des Codes und seiner Anwendung erlangen können.

Während der Frage-und-Antwort-Runde stellt sich häufig die Frage, ob ChatGPT in der Lage ist, mit den täglichen Veränderungen auf den Finanzmärkten Schritt zu halten. Der Moderator stellt klar, dass die Wirksamkeit von ChatGPT als Sprachmodell durch die Daten begrenzt ist, auf denen es trainiert wurde, und dass es nicht täglich aktualisiert wird. Für die effektive Nutzung von ChatGPT oder anderen maschinellen Lernmodellen im Finanzwesen ist es wichtig, über die neuesten Marktdaten auf dem Laufenden zu bleiben.

Die Referenten gehen auf verschiedene weitere Fragen des Publikums ein und liefern hilfreiche Informationen. Sie informieren das Publikum darüber, dass die aufgezeichnete Sitzung zur späteren Bezugnahme per E-Mail und auf ihrem YouTube-Kanal geteilt wird. Sie besprechen außerdem die Verfügbarkeit eines Notebooks für die nächsten 24 Stunden und erläutern das Konzept einer Pipeline beim maschinellen Lernen.

Es stellt sich eine spezielle Frage bezüglich der Konvertierung von vektorisiertem Python-Code in ein Format, das in einer Live-Handelsbibliothek eingesetzt werden kann. Die Referenten erklären, dass ChatGPT zwar bei der Codekonvertierung helfen kann, die Definition von Ereignisauslösern jedoch weiterhin erforderlich ist. Darüber hinaus erwähnen sie, dass Chargeability 3.5 keine Informationen für das Jahr 2022 liefert.

Abschließend diskutieren die Redner eine Handelsstrategie, die Hoch- und Tiefstvorhersagen für den nächsten Tag nutzt und mithilfe von Techniken des maschinellen Lernens optimiert wurde. Sie betonen die Anwendungen von Deep Learning im Handel, wie z. B. Zeitreihenprognosen, Portfoliooptimierung und Risikomanagement. Deep Learning kann in Verbindung mit Reinforcement Learning die Leistung von Handelsstrategien verbessern, indem es Agenten ermöglicht, durch Belohnungen und Strafen aus Fehlern zu lernen.

Der Referent betont, dass Domänenexpertise und Intuition nach wie vor von entscheidender Bedeutung für den zuverlässigen Einsatz von maschinellem Lernen im Handel sind. Während Tools wie ChatGPT bei der Analyse historischer Daten und der Einschätzung der Erfolgswahrscheinlichkeit zukünftiger Geschäfte hilfreich sein können, sollte man sich nicht ausschließlich auf sie verlassen. Es wird betont, wie wichtig es ist, sich domänenbezogenes Wissen anzueignen, Fakten zu überprüfen und kontinuierlich über die neuesten Marktdaten auf dem Laufenden zu bleiben, um eine genaue und fundierte Entscheidungsfindung in der Handelsbranche sicherzustellen.

  • 00:00:00 ML-Algorithmen können die Trends und Muster auf dem Markt verstehen und diese Informationen dann verwenden, um zukünftige Marktbewegungen vorherzusagen. Um diesen Prozess zu unterstützen, werden häufig maschinelle Lernalgorithmen verwendet, und hier kommt ChatGPT ins Spiel. ChatGPT ist ein Tool zur Verarbeitung natürlicher Sprache, das Händlern dabei helfen kann, große Mengen an Finanzdaten zu analysieren und Einblicke in Markttrends zu geben. Die Verwendung von ChatGPT birgt jedoch eigene Herausforderungen und Risiken, die später in der Präsentation erörtert werden. Insgesamt haben ML und ChatGPT die Handelsbranche revolutioniert, indem sie genauere Vorhersagen und fundiertere Entscheidungen ermöglichen.

  • 00:05:00 Der Redner diskutiert den Einsatz von Natural Language Processing (NLP)-Modellen wie ChatGPT in der Handelsbranche. Diese Modelle sind in der Lage, Textquellen wie Nachrichtenartikel, Social-Media-Beiträge und Finanzberichte zu analysieren und zu verstehen. ChatGPT, ein großes Sprachmodell, eignet sich besonders gut für die Analyse solcher Daten und kann natürlich klingende Antworten auf Textaufforderungen generieren, was es ermöglicht, Gespräche über Handelsmöglichkeiten zu führen. Die Finanzwelt hat hohe Erwartungen an ChatGPT, da es bei der Entwicklung und Optimierung von Handelsstrategien helfen soll. Der Referent erklärt außerdem die Unterschiede zwischen künstlicher Intelligenz, maschinellem Lernen und Deep Learning, wobei maschinelles Lernen eine Sammlung von Techniken ist, die in der KI eingesetzt werden, um Maschinen beizubringen, menschliches Verhalten zu simulieren und intelligente Entscheidungen zu treffen.

  • 00:10:00 Der Referent diskutiert, wie maschinelles Lernen (ML) für den Handel genutzt werden kann und beschreibt den typischen Arbeitsablauf von ML im Handel. Sie erklären, dass ML eine Teilmenge der künstlichen Intelligenz (KI) ist, die es Maschinen ermöglicht, aus Daten zu lernen und Vorhersagen zu treffen. Um ML anzuwenden, werden zunächst die Daten gesammelt und vorverarbeitet. Anschließend werden Funktionen entwickelt, um Rohdaten in Attribute umzuwandeln, die eine Maschine verstehen kann. Anschließend werden die Daten modifiziert, in Trainings- und Testsätze aufgeteilt und in ein Modell eingebaut. Abschließend wird das Modell anhand neuer Daten getestet. Wenn die Daten zufriedenstellend sind, können Vorhersagen getroffen werden. Der Redner liefert später ein Beispiel für die Verwendung von ML zur Vorhersage des Höchst- und Tiefststands eines Vermögenswerts wie Gold für den nächsten Handelstag, was zur Vereinfachung des Handelsprozesses beitragen kann.

  • 00:15:00 Der Redner erläutert, wie ChatGPT als Unterstützung bei der Lösung von Problemen eingesetzt werden kann, beispielsweise bei der Erstellung eines linearen Regressionsmodells zur Vorhersage der Goldpreise für den nächsten Tag. Sie vergleichen den Ansatz von ChatGPT mit einem professionelleren quantitativen Ansatz, der das Sammeln und Bereinigen von Daten, das Erstellen von Modellen und Pipelines, das Überprüfen des Daten-AP, den Live-Handel und die Bereitstellung in der Produktion bei gleichzeitiger kontinuierlicher Verbesserung umfasst. Sie zeigen auch ein Beispiel eines Regressionscode-Notizbuchs für maschinelles Lernen und erläutern die vier Teile der Lösung des Problems: Datenvorbereitung, Vorverarbeitung, Preisvorhersage sowie Strategie- und Leistungsanalyse. Der Redner weist darauf hin, dass ChatGPT zwar zur Ideengenerierung verwendet werden kann, es jedoch wichtig ist, jedes Konzept im Detail zu verstehen und differenziert vorzugehen, um Fehler zu vermeiden. Sie diskutieren auch die Verwendung von ChatGPT zum Generieren von Code und zum Starten einer Umfrage.

  • 00:20:00 Der Redner bespricht die Antworten des Publikums auf eine Umfrage zur Fähigkeit von ChargeGPT, Code genau zu generieren. Die Mehrheit der Zuhörer (74 %) entscheidet zu Recht, dass ChargeGPT eine angemessene Genauigkeit bieten kann, sich jedoch nicht für komplexe Programmieraufgaben eignet, die Domänenkenntnisse erfordern. Anschließend demonstriert der Redner, wie man Daten mithilfe des von ChargeGPT generierten Python-Codes in einen Zug- und Testsatz aufteilt und zeigt, wie die Daten für Zeitreihendaten im Handel korrekt sequenziert werden müssen.

  • 00:25:00 Der Redner erörtert die Bedeutung der Bewertung der Leistung eines auf maschinellem Lernen basierenden Handelsalgorithmus durch Backtesting und Strategieanalysen. Sie erklären, dass dies eine detaillierte Analyse der Leistung der Strategie und die Verwendung verschiedener Kennzahlen wie der Sharp Ratio, der annualisierten Renditen und der Volatilität der Renditen erfordert, um Einblicke in Trades und Leistung zu gewinnen. Der Redner zeigt auch ein Beispiel dafür, wie man die Rendite eines Handelsalgorithmus mit einer Buy-and-Hold-Strategie vergleicht, um als ersten Schritt zu verstehen, ob der Handelsalgorithmus gut funktioniert.

  • 00:30:00 Der Redner diskutiert die Ergebnisse der Anwendung von Algorithmen des maschinellen Lernens auf Handelsstrategien und betont die Bedeutung der Visualisierung und Analyse der Daten. Sie präsentieren eine profitable Strategie und verdeutlichen die Notwendigkeit von Strategieanalysen, beispielsweise der jährlichen Rendite und der kumulierten Rendite. Anschließend geht der Redner auf die Herausforderungen und Risiken ein, die mit der Verwendung von ChatGPT für den ML-basierten Algorithmus-Handel verbunden sind, und weist auf Einschränkungen wie mangelnde Fachkenntnisse in diesem Bereich, begrenzte Trainingsdaten und Probleme bei der Interpretierbarkeit hin. Sie warnen davor, sich bei Handelsentscheidungen ausschließlich auf ChatGPT zu verlassen, und betonen die Bedeutung von Genauigkeitsprüfungen für verschiedene Finanzperioden.

  • 00:35:00 Der Referent diskutiert die Einschränkungen der Verwendung des Sprachmodells GPT für die Finanzanalyse im Handel. Das Publikum nahm zuvor an einer Umfrage teil und die Mehrheit war der Meinung, dass eine angemessene Genauigkeit eine Überprüfung der Fakten erfordert und dass GPT möglicherweise nicht für Finanzanalysen geeignet ist. Der Redner verdeutlicht diese Einschränkung, indem er GPT auffordert, die Jahresabschlüsse von Apple und Microsoft für 2020 zu vergleichen, was zu einer ungenauen Antwort führt. Der Referent betont, dass es sich bei GPT um ein Generatormodell handelt und es ihm an Domänenexpertise mangelt, was zu falschen Schlussfolgerungen oder Vorschlägen führen könnte. Daher empfiehlt der Redner, mehr Bücher zu lesen, sich finanzbezogenes Wissen anzueignen und Fakten zu prüfen, bevor ML-Algorithmen für den Handel angewendet werden.

  • 00:40:00 Der Referent betont, wie wichtig domänenbezogenes Wissen bei der Anwendung von maschinellem Lernen im Finanzwesen ist. Er schlägt vor, Kurse zu belegen, um dieses Fachwissen zu erwerben, was eine bessere Nutzung von Tools für maschinelles Lernen wie ChatGPT ermöglichen kann. Der Moderator bietet außerdem kostenlosen Zugang zu vier Notizbüchern aus einem Schulungskurs zum Thema „Handel mit maschinellem Lernen“, damit die Zuschauer den Code besser verstehen können. Während der Frage-und-Antwort-Runde wurde häufig die Frage aufgeworfen, ob ChatGPT mit den täglichen Veränderungen auf den Finanzmärkten Schritt halten kann. Der Moderator stellt klar, dass es als Sprachmodell nur so gut ist wie die Daten, auf denen es trainiert wird, und dass es nicht täglich aktualisiert wird. Für den effektiven Einsatz von ChatGPT oder einem anderen maschinellen Lernmodell im Finanzwesen ist es wichtig, über die neuesten Marktdaten auf dem Laufenden zu bleiben.

  • 00:45:00 Die Referenten gehen auf verschiedene Fragen des Publikums ein. Sie erklären, dass die aufgezeichnete Sitzung per E-Mail und auf ihrem YouTube-Kanal geteilt wird. Sie besprechen außerdem die Verfügbarkeit eines Notebooks für die nächsten 24 Stunden und die Definition einer Pipeline beim maschinellen Lernen. Die Referenten beantworten eine Frage zur Konvertierung von vektorisiertem Python-Code in einen Code, der in einer Bibliothek für den Live-Handel bereitgestellt werden kann. Es wird erklärt, dass Charge zwar bei der Konvertierung des Codes helfen kann, es aber dennoch notwendig ist, Ereignisauslöser zu definieren. Die Redner erwähnen auch, dass Chargeability 3.5 keine Informationen für 2022 liefert. Schließlich sprechen die Redner über eine Handelsstrategie, die die Höchst- und Tiefststände des nächsten Tages nutzt, und wie diese mithilfe von maschinellem Lernen optimiert wurde.

  • 00:50:00 Der Referent erklärt die Anwendungen von Deep Learning im Handel, einschließlich Zeitreihenprognosen, Optimierung von Portfolios und Risikomanagement. Sie beschreiben, wie Deep Learning bestimmte Agenten hervorbringt, die durch Belohnungen und Bestrafungen aus Fehlern lernen, und wie eine Kombination aus Deep Learning und Reinforcement Learning genutzt werden kann, um die Leistung von Handelsstrategien zu verbessern. Der Redner betont, dass der Schlüssel zum zuverlässigen Einsatz von maschinellem Lernen im Handel in Domänenkompetenz und Intuition liegt und dass Tools wie ChatGPT zur Analyse historischer Daten und zur Bereitstellung von Erkenntnissen über die Erfolgswahrscheinlichkeit zukünftiger Geschäfte verwendet werden können.

  • 00:55:00 Der Redner erklärt, dass die alleinige Verwendung der Gebührenpflicht möglicherweise nicht der beste Ansatz zur Bestimmung des Risikos von Geschäften ist, da hierfür ein tiefes Verständnis der Domäne selbst erforderlich ist. Es ist wichtig, sich Wissen und Verständnis über die Domäne anzueignen, bevor man sich zur Lösung des Problems auf ein Tool oder einen Code verlässt. Sie erwähnen auch den Unterschied zwischen zwei Handelskursen und beantworten eine Frage zur Konvertierung von handelsplattformspezifischem Code in Python. Während die Aufladbarkeit bei der Konvertierung generischer Programmiersprachen hilfreich sein kann, ist sie bei plattformspezifischen Codekonvertierungen möglicherweise nicht hilfreich.
ChatGPT and Machine Learning in Trading
ChatGPT and Machine Learning in Trading
  • 2023.03.22
  • www.youtube.com
This session discusses the basics, uses & needs of ChatGPT and machine learning in trading. Attendees will learn how to integrate ChatGPT and machine learnin...
 

Finanzmarktverhalten verstehen: Die Rolle mehrerer Datenkategorien



Finanzmarktverhalten verstehen: Die Rolle mehrerer Datenkategorien

Der Gastgeber beginnt das Webinar mit einer Einführung in das Thema des Verständnisses des Finanzmarktverhaltens und der Rolle mehrerer Datenkategorien. Die Diskussionsteilnehmer, darunter Professor Gotham Mitra, Dr. Ernest Chan und Dr. Mateo Campoloni, werden als Experten mit umfangreicher Erfahrung im Handel und in akademischen Karrieren vorgestellt. Ziel des Webinars ist es, zu untersuchen, wie Daten aus verschiedenen Kategorien eine entscheidende Rolle beim Verständnis und der Vorhersage des Finanzmarktverhaltens spielen, ein Thema, das in jüngster Zeit zunehmend an Bedeutung gewonnen hat. Es wird erwähnt, dass die Sitzung Teil des Zertifikats in Sentimentalysis und Alternative Data for Finance ist, das von Opticks Systems und QuantInsti angeboten wird.

Der erste Redner betont die Bedeutung von Daten für das Verständnis des Finanzmarktverhaltens. Während anfangs nur begrenzte Daten wie Marktpreise, Kauf- und Verkaufsaufträge und die Tiefe des Buchs verfügbar waren, muss heute eine breite Palette an Datenkategorien berücksichtigt werden. Dazu gehören Nachrichtendaten, Medienstimmungsdaten und alternative Daten. Trotz der Effizienzmarkthypothese, die darauf hindeutet, dass Märkte letztendlich alle Informationen integrieren, gibt es immer noch kurzfristige Ineffizienzen auf dem Markt. Daher spielen Daten eine entscheidende Rolle bei der Entdeckung von neuem Alpha und der Bewältigung zweier großer Marktprobleme: Portfolioplanung und Risikokontrolle. Der Referent betont zudem die wachsende Bedeutung von künstlicher Intelligenz (KI) und maschinellem Lernen im Umgang mit Daten.

Der nächste Redner stellt das Konzept des kausalen Investierens vor, bei dem die kausalen Zusammenhänge zwischen verschiedenen Prädiktoren und Zielvariablen untersucht werden und nicht nur statistische Korrelationen analysiert werden. Durch die Nutzung alternativer Daten wie Optionsaktivitäten können Anleger Einblicke in die zugrunde liegenden Ursachen von Preisbewegungen gewinnen und die Genauigkeit ihrer Handelsstrategien verbessern. Es wird ein Beispiel für die Mean-Reverting-Strategie angeführt, wobei betont wird, wie wichtig es ist, zu verstehen, warum sie gelegentlich fehlschlägt. Durch die Nutzung alternativer Daten zur Aufdeckung der Ursachen von Preisbewegungen können Anleger fundiertere Entscheidungen darüber treffen, wann sie ihre Strategien anwenden.

Die Bedeutung von Daten für Marktbetreiber, insbesondere alternativer Daten, wird von folgendem Redner erörtert. Alternative Daten beziehen sich auf alle Daten, die nicht bereits ein Industriestandard sind und ein ständig wachsendes Ökosystem bilden, in dem ständig neue Akteure und Datenanbieter entstehen. Diese Daten können aus verschiedenen Kanälen wie Kreditkartentransaktionen, Satellitenbildern, Mobilgerätedaten, Wetterdaten und mehr stammen. Der Redner erwähnt auch den Einsatz von Tools zur Verarbeitung natürlicher Sprache zur Analyse von Textdokumenten und zur Generierung von Stimmungsindikatoren, die für Anleger bei der Ergänzung ihrer Anlagestrategien wertvoll sein können.

Der Prozess der Nutzung alternativer Daten in Anlagestrategien wird vom nächsten Redner beschrieben. Dabei geht es darum, neue Informationsquellen zu identifizieren, die unstrukturierten Daten zu integrieren und in strukturierte Datensätze umzuwandeln. Nach der Entwicklung einer Anlagestrategie wird die Validierung zu einem entscheidenden Schritt, der ein Verständnis der Zuverlässigkeit der Daten und der statistischen Signifikanz der Ergebnisse erfordert. Der Referent betont, wie wichtig es sei, bei der Erstellung von Modellen nicht nur auf alternative Daten zu setzen, sondern auch Marktdaten zu berücksichtigen.

Die Referenten befassen sich mit der Bedeutung alternativer Daten für die Erfassung von Markttrends und den Herausforderungen, die mit dem Backtesting solcher Daten verbunden sind. Während sich technische Händler früher auf einfache Kennzahlen wie den gleitenden 120-Tage-Durchschnitt verließen, gibt es jetzt Bestrebungen, eine breitere Palette von Datenkategorien einzubeziehen, um die Renditeursachen zu verstehen. Da es sich bei alternativen Daten jedoch um relativ neue Daten handelt, gibt es Bedenken hinsichtlich der Art und Weise, wie sie Backtests durchführen und wie konsistent sie im Laufe der Zeit bleiben. Um die Auswirkungen von Anlagestrategien zu verstehen, muss die Stabilität des Systems hinsichtlich zufälliger Schwankungen beurteilt werden.

Die Redner diskutieren die Nutzung alternativer Datenplattformen wie Bloomberg Icon und Reuters Quantum durch Händler zur Entwicklung robuster Anlagestrategien. Obwohl diese Plattformen über eigene Modelle zur Quantifizierung verschiedener Datenformen wie Stimmung und Nachrichten verfügen, empfehlen die Referenten Händlern, eigene Modelle zu erstellen. Die Bedeutung der Nutzung von APIs zum Empfang alternativer Dateneingaben wird hervorgehoben und der Wert organisierter Websites wie Credit Suisse bei der Analyse von Unternehmensmitteilungen wird erwähnt. Abschließend weisen die Redner darauf hin, dass enge, spezialisierte Ansätze bei der Analyse des Marktverhaltens äußerst effektiv sein können.

Anschließend besprechen die Referenten die verschiedenen Tools und Websites, die genutzt werden können, um das Verhalten verschiedener Anlageklassen auf dem Finanzmarkt zu verstehen und wie man den Markt basierend auf Anlagestil und Zeithorizont verfolgen kann. Obwohl sie anerkennen, dass es keine einheitliche Lösung gibt, weisen sie darauf hin, dass qualitative Informationen von Websites wie Bloomberg in dieser Hinsicht hilfreich sein können. Sie betonen auch, wie wichtig es ist, die Stimmung und alternative Datenquellen wie Microblogs und Chatrooms zu verstehen. Sie stellen jedoch fest, dass es nicht unbedingt garantiert ist, dass die Ausbildung zum Experten in diesen Bereichen zu einer besseren Karriere auf dem Finanzmarkt führt.

Anschließend erklärt der Redner den Unterschied zwischen der Entwicklung fortgeschrittener Handelsstrategien für große Fonds und einfachen Strategien für unabhängige Händler. Es wird erwähnt, dass komplexe Techniken für Arbeitssuchende bei großen Fonds möglicherweise besser geeignet sind, während unabhängigen Händlern empfohlen wird, mit einer Nischenstrategie zu beginnen, die für Institutionen möglicherweise nicht von Interesse ist. Dieser Ansatz hilft ihnen, die hohen Kosten zu vermeiden, die mit komplexen Datenfeeds verbunden sind. Der Redner hebt außerdem das zunehmende Interesse an neuen Datenquellen für den Handel hervor, was ihn zu einem relevanten Bereich macht, den es zu lernen und zu verfolgen gilt. Sie erwähnen auch, dass sie persönlich in gewissem Umfang alternative Daten in ihrem Fondsmanagement nutzen und Kunden bei der Implementierung von auf maschinellem Lernen und der Verarbeitung natürlicher Sprache basierenden Modulen oder der Validierung ihrer eigenen Strategien mithilfe von Datensätzen unterstützen.

Während der Frage-und-Antwort-Runde wird die Frage aufgeworfen, ob Twitter blaue Häkchen verkauft und ob verifizierte Konten bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) mehr Gewicht haben würden. Die Diskussionsteilnehmer haben zunächst Schwierigkeiten, die Frage zu verstehen, geben jedoch später zu, dass sie nicht qualifiziert sind, sie zu beantworten. Die Diskussion verlagert sich dann auf traditionelle Finanzdatenquellen, die für Anfänger und Studenten geeignet sind, wobei Bloomberg und Definitive als mögliche Optionen genannt werden. Es wird vorgeschlagen, dass Datenanbieter kostenlose Datensätze mit einem gewissen Grad an Interaktion anbieten könnten.

Anschließend geht der Referent auf die Nutzung alternativer Datenquellen zur Finanzmarktanalyse ein und erwähnt dabei insbesondere das Unternehmen DGLT, das Daten aus globalen und lokalen Nachrichtenquellen sammelt. Obwohl der Aufwand zum Herausfiltern relevanter Informationen anerkannt wird, wird darauf hingewiesen, dass die gesammelten Daten eine historische Perspektive auf das Marktverhalten bis ins 19. Jahrhundert bieten können. Auf die Frage, ob alternative Daten als alleinige Quelle oder zur Validierung neben traditionellen Daten verwendet werden sollten, gibt der Redner an, dass es keine allgemeine Regel gebe und dies von der konkreten Strategie abhängt, die angewendet wird. Sie betonen jedoch, dass Marktdaten nach wie vor der Haupttreiber sind und man sich nicht ausschließlich auf alternative Daten verlassen sollte.

Der Redner schließt das Webinar mit einer Diskussion über die Verwendung alternativer Daten auf Finanzmärkten und wie maschinelles Lernen zur Analyse solcher Daten eingesetzt werden kann. Sie unterstreichen die Notwendigkeit, mehrere Arten von Daten, einschließlich Preis- und Fundamentaldaten, in prädiktive Algorithmen für maschinelles Lernen einzugeben. Sie betonen jedoch auch, dass alternative Daten allein nicht als alleiniger Treiber dienen können und mit Marktpreisinformationen kombiniert werden sollten. Das Publikum wird ermutigt, sich bei weiteren Fragen an uns zu wenden.

  • 00:00:00 Der Moderator stellt das Thema des Webinars vor, bei dem es um das Verständnis des Finanzmarktverhaltens und die Rolle mehrerer Datenkategorien geht. Zu den Diskussionsteilnehmern gehören Professor Gotham Mitra, Dr. Ernest Chan und Dr. Mateo Campoloni, die über umfassende Erfahrung im Handel und in akademischen Karrieren verfügen. Der Schwerpunkt des Webinars liegt darauf, zu untersuchen, wie Daten aus mehreren Kategorien eine entscheidende Rolle beim Verständnis und der Vorhersage des Finanzmarktverhaltens spielen, was in letzter Zeit immer wichtiger geworden ist. Die Sitzung ist Teil des Zertifikats „Sentimentalysis and Alternative Data for Finance“, das von Opticks Systems und QuantInsti angeboten wird.

  • 00:05:00 Der Redner diskutiert die Bedeutung von Daten für das Verständnis des Finanzmarktverhaltens. Während anfangs nur Marktpreise, Kauf- und Verkaufsaufträge und die Tiefe des Buchs verfügbar waren, gibt es heute viel mehr Datenkategorien, darunter Nachrichtendaten, Medienstimmungsdaten und alternative Daten. Trotz der Effizienzmarkthypothese, die besagt, dass Märkte letztendlich alle Informationen verarbeiten, gibt es immer noch kurzfristige Marktineffizienzen. Daher sind Daten wichtig, um neues Alpha zu finden und zwei große Probleme auf dem Markt anzugehen: Portfolioplanung und Risikokontrolle. Der Referent weist außerdem darauf hin, dass der KI- und Machine-Learning-Anteil in Wissensdaten in der Datenszene immer wichtiger wird.

  • 00:10:00 Der Redner erörtert das Konzept des kausalen Investierens, bei dem die kausalen Beziehungen zwischen verschiedenen Prädiktoren und Zielvariablen betrachtet werden und nicht nur statistische Korrelationen analysiert werden. Durch die Verwendung alternativer Daten, wie z. B. der Optionsaktivität, können Anleger die zugrunde liegenden Ursachen von Preisbewegungen verstehen und diese Informationen nutzen, um die Genauigkeit ihrer Handelsstrategien zu verbessern. Der Redner nennt als Beispiel die Mean-Reverting-Strategie und wie wichtig es ist, zu verstehen, warum sie manchmal scheitert. Durch die Nutzung alternativer Daten zur Aufdeckung der Ursachen von Preisbewegungen können Anleger fundiertere Entscheidungen darüber treffen, wann sie ihre Strategien umsetzen.

  • 00:15:00 Der Redner erörtert die Bedeutung von Daten für Marktbetreiber, insbesondere alternativer Daten, die sich auf alle Daten beziehen, die nicht bereits ein Industriestandard sind. Alternative Daten sind ein ständig wachsendes Ökosystem, in dem ständig neue Akteure und Anbieter von Datensätzen entstehen. Diese Daten können aus verschiedenen Quellen stammen, z. B. Kreditkartentransaktionen, Satellitenbildern, Daten mobiler Geräte, Wetterdaten und mehr. Der Redner erwähnt auch den Einsatz von Tools zur Verarbeitung natürlicher Sprache zur Verarbeitung von Textdokumenten und zur Erstellung von Stimmungsindikatoren, die von Anlegern zur Ergänzung ihrer Anlagestrategien verwendet werden können.

  • 00:20:00 Der Referent beschreibt den Prozess der Nutzung alternativer Daten in Anlagestrategien, bei dem es darum geht, neue Informationsquellen zu finden, die Informationen einzubetten und sie von unstrukturierten in strukturierte Datensätze umzuwandeln. Nach der Erstellung einer Anlagestrategie ist die Validierung der entscheidende Schritt. Dazu muss man die Zuverlässigkeit der Daten und die statistische Signifikanz der Ergebnisse verstehen. Darüber hinaus ist es wichtig, sich nicht nur auf alternative Daten zu verlassen, sondern bei der Modellerstellung auch Marktdaten zu berücksichtigen.

  • 00:25:00 Die Referenten diskutieren die Bedeutung alternativer Daten bei der Erfassung von Markttrends und die Schwierigkeiten, die mit dem Backtesting der Daten verbunden sind. Während sich technische Händler früher auf einfache Kennzahlen wie den gleitenden 120-Tage-Durchschnitt verließen, gibt es nun Bestrebungen, eine Reihe verschiedener Datenkategorien einzubeziehen, um die Ursachen von Renditen zu verstehen. Allerdings handelt es sich bei alternativen Daten nur um die Frage, wie man sie erneut testen kann und wie konsistent sie im Zeitverlauf sind, da sie in der Vergangenheit nicht existierten. Die Referenten betonen, dass das Verständnis der Wirkung von Anlagestrategien eine Beurteilung der Stabilität des Systems im Hinblick auf zufällige Schwankungen erfordert.

  • 00:30:00 Die Referenten diskutieren die Nutzung alternativer Datenplattformen wie Bloomberg Icon und Reuters Quantum durch Händler zur Entwicklung fundierter Anlagestrategien. Während diese Plattformen über eigene Modelle zur Quantifizierung verschiedener Datenformen wie Stimmungsdaten und Nachrichtendaten verfügen, wird Händlern empfohlen, eigene Modelle zu erstellen. Darüber hinaus sprechen die Redner über die Bedeutung der Verwendung von APIs zum Empfang alternativer Dateneingaben und den Wert der Nutzung organisierter Websites wie Credit Suisse zur Analyse von Unternehmensmitteilungen. Abschließend weisen die Redner darauf hin, dass enge, spezialisierte Ansätze bei der Analyse des Marktverhaltens sehr effektiv sein können.

  • 00:35:00 Die Referenten besprechen die verschiedenen Tools und Websites, die genutzt werden können, um das Verhalten verschiedener Anlageklassen auf dem Finanzmarkt zu verstehen, sowie wie man den Markt basierend auf Anlagestil und Zeithorizont verfolgen kann. Obwohl es keine allgemeingültige Lösung gibt, können qualitative Informationen von Websites wie Boomberg hilfreich sein. Die Redner sprechen auch über die Bedeutung des Verständnisses von Stimmungen und alternativen Daten wie Microblogs und Chatrooms. Es ist jedoch nicht klar, ob die Ausbildung zum Experten in diesen Bereichen zwangsläufig zu einer besseren Karriere auf dem Finanzmarkt führen würde.

  • 00:40:00 Der Redner erklärt den Unterschied zwischen der Entwicklung fortgeschrittener Handelsstrategien für große Fonds und einfachen Strategien für unabhängige Händler. Während komplexe Techniken für Arbeitssuchende bei großen Fonds möglicherweise besser geeignet sind, ist es für unabhängige Händler besser, mit einer Nischenstrategie zu beginnen, die für Institutionen möglicherweise nicht von Interesse ist, und die hohen Kosten zu vermeiden, die mit komplexen Datenfeeds verbunden sind. Der Redner stellt außerdem fest, dass das Interesse an neuen Datenquellen für den Handel zunimmt, was diesen Bereich zu einem relevanten Bereich macht, den es zu erlernen und zu verfolgen gilt. Sie erwähnen auch, dass sie in ihrem Fondsmanagement in gewissem Umfang alternative Daten verwenden und Kunden auch dabei unterstützen, auf maschinellem Lernen und der Verarbeitung natürlicher Sprache basierende Module zu implementieren oder ihre eigenen Strategien mithilfe von Datensätzen zu validieren.

  • 00:45:00 Es wird die Frage gestellt, ob Twitter blaue Häkchen verkauft und ob verifizierte Konten bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) stärker gewichtet werden würden. Die Diskussionsteilnehmer haben zunächst Schwierigkeiten, die Frage zu verstehen und geben später zu, dass sie nicht qualifiziert sind, sie zu beantworten. Die Diskussion geht dann weiter zu traditionellen Finanzdatenquellen für Anfänger und Studenten, wobei Bloomberg und Definitive als mögliche Optionen genannt werden und der Vorschlag gemacht wird, dass Datenanbieter kostenlose Datensätze mit einem gewissen Maß an Interaktion anbieten könnten.

  • 00:50:00 Der Redner diskutiert die Nutzung alternativer Datenquellen für die Finanzmarktanalyse und erwähnt insbesondere das Unternehmen DGLT, das Daten aus globalen und lokalen Nachrichtenquellen sammelt. Auch wenn das Herausfiltern der notwendigen Informationen sehr aufwändig sein kann, können die gesammelten Daten bis ins 19. Jahrhundert zurückreichen und eine historische Perspektive auf das Marktverhalten bieten. Auf die Frage, ob alternative Daten als alleinige Quelle oder zur Validierung neben traditionellen Daten verwendet werden sollten, gibt der Redner an, dass es keine allgemeine Regel gebe und dies von der konkreten verwendeten Strategie abhängt. Der Redner betont jedoch, dass Marktdaten das A und O sind und man sich nicht ausschließlich auf alternative Daten verlassen sollte.

  • 00:55:00 Der Referent diskutiert die Verwendung alternativer Daten auf Finanzmärkten und wie maschinelles Lernen zur Analyse dieser Daten eingesetzt werden könnte. Er weist darauf hin, dass mehrere Arten von Daten, einschließlich Preis- und Fundamentaldaten, in den Vorhersagealgorithmus für maschinelles Lernen eingegeben werden müssten. Allerdings weist er auch darauf hin, dass alternative Daten nicht als alleiniger Treiber verwendet werden können und mit Marktpreiseingaben gekoppelt werden müssen. Der Redner schließt das Webinar ab und ermutigt die Zuschauer, sich bei Fragen an uns zu wenden.
Understanding Financial Market Behaviour: The role of multiple categories of data
Understanding Financial Market Behaviour: The role of multiple categories of data
  • 2023.03.02
  • www.youtube.com
Financial markets are influenced by news, (micro) blogs and other categories of online streaming data. These sources of information reach financial market pa...
 

Einführung in quantitatives Factor Investing



Einführung in quantitatives Factor Investing

Dieses Video stellt das Konzept des quantitativen Factor Investing und seine Klassifizierung in verschiedene Faktoren vor, darunter Value, Momentum, Qualität und Größe. Der Referent erklärt, dass es beim Factor Investing um die Auswahl von Wertpapieren geht, die auf bestimmten Faktoren basieren, die die Rendite steigern sollen, und zwar über einen langen Zeitraum. Das Video behandelt verschiedene quantitative Methoden, die zur Anwendung quantitativer Faktorinvestitionen verwendet werden können, einschließlich statistischer Analyse, Faktormodellierung, maschinellem Lernen, Optimierungsmodellen, Zeitreihenanalyse, Risikomodellen und Montagesimulation. Der Referent geht außerdem auf die Vorteile des Einsatzes quantitativer Faktorinvestitionen und den Prozess der Auswahl und Kombination von Faktoren ein und beantwortet Fragen zum Thema, unter anderem zu den Datenquellen und der Eignung für den Mittel-/Hochfrequenzhandel.

Im Webinar bietet Varun Kumar, quantitativer Analyst bei QuantInsti, eine umfassende Einführung in das quantitative Factor Investing. Er beginnt mit der Erläuterung des Konzepts der Faktoren, bei denen es sich um umfassende und dauerhafte Risiko- und Renditequellen handelt, die Anleger zu quantifizierbaren Renditen führen. Zu den häufigen Faktoren gehören Wert, Momentum, Qualität, Größe und Volatilität. Kumar konzentriert sich beispielhaft auf den Faktor Qualität, bei dem es darum geht, in Unternehmen mit hochwertigen Merkmalen zu investieren. Zur Quantifizierung der Qualität eines Unternehmens werden Finanzkennzahlen wie die Eigenkapitalrendite und die Wachstumsrate der Rentabilität herangezogen. Aktien mit hohen Quoten und hohen Margen gelten als qualitativ hochwertig, während Aktien mit niedrigeren Quoten und Margen als minderwertig gelten. Historische Daten zeigen, dass Portfolios, die aus hochwertigen Aktien bestehen, über lange Zeiträume hinweg Überrenditen generiert haben.

Anschließend befasst sich Kumar mit der Klassifizierung von Faktoren beim quantitativen Factor Investing. Faktoren werden in sieben Typen eingeteilt, darunter Makrofaktoren, stilbasierte Faktoren, sektorale Faktoren, ESG-basierte Faktoren, stimmungsbasierte Faktoren, liquiditätsbasierte Faktoren und technische Faktoren. Er gibt Einblicke in die Funktionsweise jedes dieser Faktoren und wie sie zum Aufbau von Faktorportfolios genutzt werden können. Um dies zu veranschaulichen, präsentiert er Beispiele für Strategien, die auf makroökonomischen und stilbasierten Faktoren basieren. Bei diesen Strategien werden Variablen wie BIP-Wachstum, Inflationsrate, Zinssatz und Eigenkapitalrendite genutzt, um Aktien auszuwählen und ein Portfolio aufzubauen. Kumar betont außerdem, wie wichtig es ist, bei der Auswahl von Aktien für ein Portfolio Faktoren wie eine höhere Eigenkapitalrendite und ein niedriges Verhältnis von Schulden zu Eigenkapital zu berücksichtigen.

Das Webinar untersucht außerdem verschiedene Faktoren, die in quantitative Faktorinvestitionsstrategien integriert werden können, darunter Stilfaktoren, Branchenmatrix, ESG-Kriterien, Stimmung, Liquidität und technische Indikatoren. Kumar erklärt, wie diese Faktoren genutzt werden können, um einen logischen Rahmen für den Aufbau von Portfolios zu entwickeln, und liefert Beispiele aus der Praxis für Strategien, die mithilfe dieser Faktoren umgesetzt werden können. Er geht kurz auf ESG-Kriterien ein, die für Umwelt-, Sozial- und Governance-Kriterien stehen, und auf ihre Rolle bei der Bewertung von Unternehmen anhand ihrer Auswirkungen auf Gesellschaft und Umwelt.

Auch der Einsatz mathematischer Modelle und statistischer Analysen beim quantitativen Factor Investing wird diskutiert. Kumar betont, dass diese Methoden dazu beitragen, emotionale Vorurteile bei Investitionsentscheidungen zu beseitigen und die Erforschung weniger intuitiver Faktoren zu ermöglichen. Er stellt die sieben am häufigsten verwendeten quantitativen Methoden in diesem Bereich vor, darunter statistische Analyse, Faktormodellierung, maschinelles Lernen, Optimierungsmodelle, Zeitreihenanalyse, Risikomodelle und Monte-Carlo-Simulationen. Das Video zeigt, wie statistische Analysen eingesetzt werden können, um Muster und Korrelationen zwischen Wertpapieren und Faktoren zu identifizieren.

Im Webinar werden die Vorteile quantitativer Faktorinvestitionen beim Aufbau und der Verwaltung von Anlageportfolios beleuchtet. Ein wesentlicher Vorteil ist die Möglichkeit, extreme Marktbedingungen zu simulieren, was Anlegern hilft, die Grenzen ihrer Portfolios besser zu verstehen. Der Redner betont die Unterschiede im Ansatz zwischen traditionellem und quantitativem Factor Investing anhand einer Fallstudie eines Large-Cap-Aktienportfolios mit niedrigem Kurs-Gewinn-Verhältnis. Während es beim traditionellen Investieren darum geht, Faktoren zu identifizieren, das Universum der Large-Cap-Aktien zu bestimmen und die Faktoren für jede Aktie zu berechnen, bevor sie anhand der KGV-Verhältnisse sortiert werden, werden beim quantitativen Faktor-Investieren Datenerhebung, Vorverarbeitung und Merkmalsauswahl eingesetzt. Es wird ein Modell erstellt, um Aktienkurse basierend auf den ausgewählten Merkmalen vorherzusagen.

Der Prozess des quantitativen Faktor-Investierens wird erläutert, wobei die Bedeutung der Erstellung genauer Modelle zur Vorhersage von Aktienkursen auf der Grundlage spezifischer Merkmale hervorgehoben wird. Der Redner betont, dass dieser Ansatz datengesteuert und objektiver im Vergleich zum herkömmlichen Factor Investing ist und eine genauere und zuverlässigere Analyse ermöglicht. Um die besten Faktoren für Investitionen auszuwählen, sollten die Faktoren beständig sein, in verschiedenen Märkten und Sektoren funktionieren, robust gegenüber verschiedenen Marktbedingungen sein, nicht übermäßig empfindlich gegenüber Veränderungen in der Marktethik sein und über genügend Liquidität und Kapazität verfügen.

Das Webinar behandelt auch die Kombination von Faktoren beim quantitativen Factor Investing. Es werden fünf häufig verwendete Methoden besprochen, darunter die Gleichgewichtung und die Faktorbewertung, bei der jeder Faktor auf der Grundlage seiner historischen Leistung bewertet wird und ein gewichteter Durchschnitt gebildet wird, um eine Gesamtbewertung zu erhalten. Die Bedeutung der Kombination von Faktoren wird hervorgehoben, da sie das Portfoliorisiko verringert, die Diversifizierung erhöht und die Volatilität der Performance minimiert. Der Redner skizziert fünf Hauptmerkmale eines besten Faktors, darunter die Untermauerung durch empirische Beweise, das Vorhandensein einer wirtschaftlichen oder finanziellen Grundlage, das Angebot langfristiger Investitionsmöglichkeiten, die Investierbarkeit sowie die Intuition und breite Akzeptanz.

Anschließend geht der Referent auf verschiedene Methoden zur Kombination von Faktoren beim quantitativen Factor Investing ein. Eine dieser Methoden ist die Hauptkomponentenanalyse (PCA), die mehrere Faktoren zu einem kleineren Satz unkorrelierter Komponenten kombiniert. Dieser Ansatz reduziert die Anzahl der Faktoren und befasst sich mit dem Problem korrelierter Faktoren, auch bekannt als Multikollinearität. Eine andere Methode ist das Factor Tilting, bei dem die Gewichtungen oder Allokationen in einem Portfolio angepasst werden, um einen bestimmten Faktor hervorzuheben. Diese Technik bietet Flexibilität und ermöglicht es Anlegern, auf bestimmte Faktoren abzuzielen. Darüber hinaus kann maschinelles Lernen genutzt werden, um Faktoren basierend auf ihrer historischen Leistung auszuwählen oder zu kombinieren und so nichtlineare Beziehungen effektiv zu erfassen. Der Redner betont, wie wichtig es ist, beim Einsatz von Deep-Learning-Algorithmen Vorsicht walten zu lassen, da diese erhebliche Datenmengen erfordern und zu einer Überanpassung neigen können. Für optimale Ergebnisse wird empfohlen, sie mit herkömmlichen statistischen Methoden zu kombinieren.

Darüber hinaus geht der Referent auf die Fragen des Publikums zum Thema quantitatives Factor Investing ein. Die Fragen decken verschiedene Themen ab, beispielsweise die Verwendung von Preisbewegungen und langfristigen Charts als Faktoren für Investitionen, wobei der Redner vorschlägt, dass diese als technischer Faktor verwendet werden können, indem man sie entsprechend definiert und ihre historische Leistung untersucht. Die Unterscheidung zwischen gehandelten und nicht gehandelten Faktoren wird am Beispiel von Immobilien als nicht gehandelter Faktor erläutert, da die Liquiditätsbestimmung schwierig ist. Der Fokus beim quantitativen Factor Investing liegt vor allem auf gehandelten Faktoren, da deren Daten leicht zugänglich sind und ein Backtesting ermöglichen. Der Redner gibt auch Einblicke in die Bestimmung, ob ein Unternehmen eher auf Value oder Wachstum ausgerichtet ist, und schlägt Techniken wie die Verwendung des Kurs-Gewinn-Verhältnisses zur Definition von Value-Aktien vor.

Die Diskussion wird mit der Untersuchung verschiedener Algorithmen fortgesetzt, die beim quantitativen Faktorinvestieren verwendet werden. Erwähnt werden Algorithmen wie rekurrente neuronale Netze (RNNs) und das lange Kurzzeitgedächtnis (LSTM), deren Relevanz von der Art der analysierten Daten abhängt. Deep-Learning-Techniken können eingesetzt werden, um Faktoren zu kombinieren und optimale Gewichtungen für jeden Faktor zu bestimmen, was zu einer verbesserten Portfolio-Performance führt. Der Redner gibt Ratschläge zu Backtesting-Faktorstrategien und betont die Bedeutung der Prüfung ihrer statistischen Signifikanz über mehrere Datensätze und Märkte hinweg. Erwähnt wird auch die Verwendung von Bollinger-Bändern als technischer Indikator zur Identifizierung von Seitwärtsmärkten.

Abschließend endet das Webinar mit einer abschließenden Frage-und-Antwort-Runde, in der der Redner auf weitere Fragen des Publikums eingeht. Zu den Fragen gehört die Rolle von Deep-Learning-Algorithmen bei der Auswahl von Industriesektoren, wobei verschiedene Optionen wie Entscheidungsbäume, neuronale Netze und Zufallswälder hervorgehoben werden. Es wird betont, dass die Auswahl des Algorithmus von der konkreten Aufgabenstellung und dem vorliegenden Datensatz abhängt. Der Redner betont erneut, wie wichtig es ist, Deep-Learning-Algorithmen aufgrund ihrer Datenanforderungen und der Möglichkeit einer Überanpassung mit Vorsicht einzusetzen. Dem Publikum wird für seine Teilnahme gedankt und es wird ermutigt, Feedback zur Sitzung zu geben.

  • 00:00:00 Varun Kumar, quantitativer Analyst bei QuantInsti, stellt das Konzept des quantitativen Factor Investing und seine Klassifizierung in verschiedene Faktoren wie Value, Momentum, Qualität und Größe vor. Er erklärt, dass es beim Factor Investing um die Auswahl von Wertpapieren auf der Grundlage spezifischer Faktoren geht, die die Rendite steigern sollen, und dass diese Faktoren technisch gesehen umfassende und dauerhafte Risiko- und Ertragsquellen darstellen. Das Webinar befasst sich mit verschiedenen quantitativen Methoden, die zur Anwendung quantitativer Faktorinvestitionen verwendet werden können, sowie mit den Unterschieden zwischen allgemeinem Faktorinvestment und quantitativem Faktorinvestment. Die Sitzung endet mit einer Fallstudie zur Auswahl der besten Faktoren und einer Diskussion darüber, wie die Faktoren kombiniert werden können.

  • 00:05:00 Das Video bietet eine Einführung in das quantitative Factor Investing und erklärt, was Faktoren sind. Faktoren sind umfassende und dauerhafte Risiko- und Ertragsquellen und führen Anleger zu einer bestimmten quantifizierbaren Rendite. Gemeinsame Faktoren sind Wert, Momentum, Qualität, Größe und Volatilität. Zur Veranschaulichung konzentriert sich das Video auf den Qualitätsfaktor, bei dem es darum geht, in Unternehmen mit hochwertigen Merkmalen zu investieren. Die Qualität eines Unternehmens wird anhand einer Kombination aus Finanzkennzahlen wie der Eigenkapitalrendite und der Wachstumsrate der Rentabilität quantifiziert. Eine Aktie mit hoher Qualität hätte hohe Quoten und hohe Margen, während Aktien mit geringer Qualität niedrigere Quoten und niedrige Margen hätten. Anschließend kann ein Portfolio aus einer Kombination hochwertiger Aktien zusammengestellt werden, die in der Vergangenheit über lange Zeiträume hinweg Überrenditen generiert hat. Die Faktoren sollten breit gefächert und dauerhaft sein und über eine breite Palette von Vermögenswerten bzw. über lange Zeiträume Renditen generieren.

  • 00:10:00 Der Referent diskutiert die Klassifizierung von Faktoren beim quantitativen Factor Investing. Faktoren werden in sieben Typen eingeteilt, darunter Makrofaktoren, stilbasierte Faktoren, sektorale Faktoren, ESG-basierte Faktoren, stimmungsbasierte Faktoren, liquiditätsbasierte Faktoren und technische Faktoren. Sie erklären, wie diese Faktoren funktionieren und wie sie zur Erstellung eines Faktorportfolios genutzt werden können. Sie bieten Beispiele für Strategien, die auf makroökonomischen und stilbasierten Faktoren basieren und Variablen wie BIP-Wachstum, Inflationsrate, Zinssatz und Eigenkapitalrendite nutzen, um Aktien auszuwählen und ein Portfolio zu erstellen. Der Hedgefonds-Manager verwendet zwei Kriterien, um Aktien auszuwählen und ein Portfolio zusammenzustellen: höhere Eigenkapitalrendite und niedriges Verhältnis von Schulden zu Eigenkapital.

  • 00:15:00 Der Referent diskutiert verschiedene Faktoren, die in quantitativen Factor-Investing-Strategien genutzt werden können. Zu diesen Faktoren gehören Stilfaktoren, Branchenmatrix, ESG-Kriterien, Stimmung, Liquidität und technische Indikatoren. Der Referent erklärt, wie diese Faktoren genutzt werden können, um eine Logik für ein Portfolio zu erstellen und gibt Beispiele für Strategien, die mithilfe dieser Faktoren umgesetzt werden können. Der Referent erklärt außerdem kurz ESG-Kriterien, was für Umwelt-, Sozial- und Governance-Kriterien steht, und wie Organisationen damit Unternehmen anhand ihrer Auswirkungen auf Gesellschaft und Umwelt bewerten. Abschließend geht der Redner auf eine Frage zu ESG-Kriterien ein und erwähnt, dass diese in den kommenden Abschnitten weiter besprochen werden.

  • 00:20:00 Das Video befasst sich mit quantitativem Factor Investing und seinem Einsatz mathematischer Modelle und statistischer Analysen zur Identifizierung von Faktoren und ihrer Beziehung zu Aktien. Diese Methoden ermöglichen die Beseitigung emotionaler Vorurteile bei Anlageentscheidungen und die Möglichkeit, weniger intuitive Faktoren zu untersuchen. Das Video listet außerdem die sieben am häufigsten verwendeten quantitativen Methoden auf, darunter statistische Analyse, Faktormodellierung, maschinelles Lernen, Optimierungsmodelle, Zeitreihenanalyse, Risikomodelle und Montagorialsimulation. Abschließend geht das Video kurz auf die Verwendung statistischer Analysen zur Identifizierung von Mustern und Korrelationen zwischen Wertpapieren und Faktoren ein.

  • 00:25:00 Das Video stellt quantitatives Faktor-Investieren vor, bei dem statistische Analysen verwendet werden, um die Reaktion einer Aktie auf bestimmte Faktoren zu bestimmen. Diese Informationen werden dann verwendet, um ein Portfolio zu entwerfen, wobei mehr Geld in Aktien fließt, die stärker auf die identifizierten Faktoren reagieren. Auch Techniken des maschinellen Lernens werden diskutiert, um Faktoren zu entdecken und zu kombinieren und Vorhersagen über die zukünftige Leistung zu treffen. Mithilfe der Zeitreihenanalyse können historische Daten analysiert und Renditetrends ermittelt werden, während Risikomodelle und Monte-Carlo-Simulationen das Risikomanagement unterstützen können. Optimierungstechniken werden verwendet, um Portfolios aufzubauen und das Faktor-Exposure zu maximieren und gleichzeitig das Risiko und die Transaktionskosten zu minimieren.

  • 00:30:00 Das Video untersucht die verschiedenen Vorteile des Einsatzes quantitativer Faktorinvestitionen beim Aufbau und der Verwaltung von Anlageportfolios. Ein wesentlicher Vorteil ist die Möglichkeit, extreme Marktbedingungen zu simulieren, um die Grenzen eines Portfolios vollständig zu verstehen. Das Video beleuchtet außerdem die wesentlichen Unterschiede im Ansatz zwischen traditionellem und quantitativem Factor Investing anhand einer Fallstudie eines Large-Cap-Aktienportfolios mit niedrigem Kurs-Gewinn-Verhältnis. Der traditionelle Ansatz besteht darin, den Faktor zu identifizieren und das Universum der Large-Cap-Aktien zu bestimmen, bevor der Faktor für jede Aktie berechnet und sie vom niedrigsten zum höchsten KGV sortiert wird. Im Gegensatz dazu nutzt der quantitative Factor-Investing-Ansatz die Datenerfassung, Vorverarbeitung und Merkmalsauswahl, bevor ein Modell erstellt wird, um Aktienkurse basierend auf den Merkmalen vorherzusagen.

  • 00:35:00 Der Redner erklärt den Prozess des quantitativen Faktorinvestierens, bei dem ein Modell zur Vorhersage von Aktienkursen auf der Grundlage spezifischer Merkmale erstellt und die Genauigkeit des Modells vor dem Aufbau eines Portfolios bewertet wird. Dieser Ansatz ist datengesteuert und objektiver als herkömmliches Factor Investing, was eine subjektivere Analyse ermöglicht. Der Hauptvorteil des Einsatzes quantitativer Faktorinvestitionen besteht darin, dass eine genauere und zuverlässigere Analyse der Daten möglich ist. Um die besten Faktoren für Investitionen auszuwählen, sollten die Faktoren beständig sein, in verschiedenen Märkten und Sektoren funktionieren, robust gegenüber unterschiedlichen Marktbedingungen sein, nicht übermäßig empfindlich gegenüber Veränderungen in der Marktethik sein und mit ausreichender Liquidität und Kapazität investierbar sein.

  • 00:40:00 Der Dozent bespricht die fünf Hauptmerkmale eines besten Faktors, zu denen gehören: dass er durch empirische Beweise untermauert ist, eine wirtschaftliche oder finanzielle Grundlage hat, langfristige Investitionsmöglichkeiten bietet, investierbar ist und intuitiv und allgemein akzeptiert ist. Es ist wichtig, Faktoren zu kombinieren, da dadurch das Portfoliorisiko verringert, die Diversifizierung erhöht und die Volatilität der Wertentwicklung verringert wird. Es gibt fünf häufig verwendete Methoden zum Kombinieren von Faktoren, darunter die Gleichgewichtung und die Faktorbewertung, bei der jeder Faktor auf der Grundlage seiner historischen Leistung bewertet wird und ein gewichteter Durchschnitt gebildet wird, um eine Gesamtbewertung zu erhalten. Der Dozent betont, dass ein gutes Portfolio nicht nur hohe Renditen erwirtschaftet, sondern sich auch über mehrere Zyklen und unterschiedliche Marktdynamiken hinweg stabil entwickelt.

  • 00:45:00 Der Referent diskutiert verschiedene Methoden zur Kombination von Faktoren beim quantitativen Factor Investing. Eine dieser Methoden ist die PCA (Hauptkomponentenanalyse), die mehrere Faktoren zu einem kleineren Satz unkorrelierter Komponenten kombiniert. Dies reduziert die Anzahl der Faktoren und beseitigt das Problem korrelierter Faktoren, bekannt als Multikolinearität. Eine andere Methode ist das Factor Tilting, bei dem die Gewichtungen oder Allokationen in einem Portfolio an einen bestimmten Faktor angepasst werden. Dies ist flexibel und kann zielgerichtet auf bestimmte Faktoren angewendet werden. Schließlich kann maschinelles Lernen verwendet werden, um Faktoren basierend auf der historischen Leistung auszuwählen oder zu kombinieren und so nichtlineare Beziehungen zu erfassen. Anschließend lädt der Redner Fragen aus dem Publikum ein und teilt den Teilnehmern einige Angebote mit.

  • 00:50:00 Der Referent beantwortet mehrere Fragen zum Thema quantitatives Factor Investing. Bei der ersten Frage geht es um die Verwendung von Preisbewegungen und langfristigen Charts als Investitionsfaktor. Der Redner antwortet, dass diese als technischer Faktor verwendet werden können, indem man sie richtig definiert und ihre historische Leistung untersucht. Die zweite Frage ist, ob die Kapitalisierung ein Faktor ist. Der Sprecher sagt, dass die Größe ein Faktor ist und die Kapitalisierung als einer der Faktoren zur Festlegung einer Strategie in Abhängigkeit von den Marktbedingungen verwendet werden kann. Der Redner beantwortet auch die Frage, wo man die Daten erhalten kann, und erwähnt dabei Websites wie Yahoo Finance und kostenpflichtige APIs wie Alpha Vantage. Abschließend antwortet der Redner auf eine Frage zum Einsatz quantitativer Faktorinvestitionen im Mittel-/Hochfrequenzhandel und erklärt, dass Faktorinvestitionen besser für langfristige Anleger geeignet seien.

  • 00:55:00 Die Algorithmen sind besonders nützlich für die Auswahl von Branchen. Zu diesem Zweck können verschiedene Deep-Learning-Algorithmen wie Entscheidungsbäume, neuronale Netze und Random Forests verwendet werden. Dies hängt von der spezifischen Aufgabe und dem vorliegenden Datensatz ab. Es ist jedoch wichtig zu beachten, dass Deep-Learning-Algorithmen mit Vorsicht eingesetzt werden sollten, da sie große Datenmengen erfordern und zu einer Überanpassung neigen können. Für optimale Ergebnisse wird empfohlen, sie in Kombination mit herkömmlichen statistischen Methoden zu verwenden.

  • 01:00:00 Der Redner diskutiert die verschiedenen Algorithmen, die beim quantitativen Faktorinvestieren verwendet werden, wie z. B. RNN und LSTM, und wie sie von der Art der analysierten Daten abhängen. Mithilfe von Deep Learning können Faktoren kombiniert und die Gewichtungen bestimmt werden, um für jeden Faktor eine optimale Leistung zu erzielen. Der Referent gibt außerdem Ratschläge zum Backtesting einer Faktorstrategie und zum Testen ihrer statistischen Signifikanz über mehrere Datensätze und Märkte hinweg. Sie schlagen vor, Bollinger-Bänder als technischen Indikator zu verwenden, um Seitwärtsmärkte zu identifizieren. Der Unterschied zwischen gehandelten und nicht gehandelten Faktoren wird ebenfalls erklärt, wobei gehandelte Faktoren auf öffentlich gehandelten Wertpapieren basieren und nicht gehandelte Faktoren solche sind, die nicht auf öffentlichen Märkten erfasst werden können.

  • 01:05:00 Der Referent erörtert den Unterschied zwischen gehandelten und nicht gehandelten Faktoren, wobei Immobilien als Beispiel für einen nicht gehandelten Faktor dienen, da die Liquidität nicht einfach bestimmt werden kann. Der Schwerpunkt des quantitativen Factor Investing liegt auf gehandelten Faktoren, da die Daten leicht zugänglich und öffentlich sind und ein Backtest möglich ist. Der Redner beantwortet auch die Frage eines Zuschauers, wie man feststellen kann, ob ein Unternehmen eher auf Wert oder Wachstum ausgerichtet ist, und schlägt Techniken wie die Verwendung des Kurs-Gewinn-Verhältnisses zur Definition von Wertaktien vor. Abschließend wird dem Publikum für seine Teilnahme gedankt und es wird aufgefordert, Feedback zur Sitzung zu geben.
Introduction to Quantitative Factor Investing
Introduction to Quantitative Factor Investing
  • 2023.02.28
  • www.youtube.com
This session covers the concept of factor investing and different types of factor investing strategies including a discussion of passive vs active investing ...
 

Maschinelles Lernen für den Optionshandel



Maschinelles Lernen für den Optionshandel

Im Webinar über maschinelles Lernen für den Optionshandel bietet der Redner Varun Kumar Patula zunächst eine Einführung in maschinelles Lernen und seinen grundlegenden Zweck. Er erklärt, dass Algorithmen des maschinellen Lernens verwendet werden, um Daten zu analysieren und Muster zu entdecken, die für Menschen möglicherweise unbemerkt bleiben. Varun unterscheidet zwischen künstlicher Intelligenz, maschinellem Lernen und Deep Learning und betont, dass maschinelles Lernen eine Teilmenge der KI ist, die sich darauf konzentriert, Modelle zu trainieren, um Vorhersagen oder Entscheidungen auf der Grundlage von Daten zu treffen. Er unterteilt maschinelles Lernen außerdem in drei Typen: überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen, jede mit ihren eigenen Merkmalen und Anwendungen.

Anschließend befasst sich der Referent mit der Anwendung von maschinellem Lernen im Optionshandel, einem Schwerpunkt des Webinars. Beim Optionshandel handelt es sich um den Kauf oder Verkauf von Optionskontrakten, die dem Inhaber das Recht einräumen, einen Vermögenswert zu einem bestimmten Preis innerhalb eines bestimmten Zeitraums zu kaufen oder zu verkaufen. Varun hebt das hohe Risiko hervor, das mit dem Optionshandel verbunden ist, und erklärt, wie maschinelles Lernen die Analysegenauigkeit verbessern und dadurch das Risiko verringern kann. Er geht ausführlich auf die verschiedenen Anwendungen des maschinellen Lernens im Optionshandel ein, darunter die Preisgestaltung von Optionen, die Gestaltung von Handelsstrategien, die Berechnung der Volatilität und die Prognose der impliziten Volatilität. Diese Anwendungen zielen darauf ab, die Entscheidungsfindung zu verbessern und die Rentabilität im Optionshandel zu steigern.

Um den Bedarf an maschinellem Lernen im Optionshandel zu verstehen, werden die Einschränkungen traditioneller Modelle wie des Black-Scholes-Modells diskutiert. Das Black-Scholes-Modell geht von einem konstanten risikofreien Zinssatz und einer konstanten Volatilität aus, was in realen Szenarien möglicherweise nicht zutrifft. Varun erwähnt alternative Modelle wie das German Candy-Modell und das Heston-Modell, die ihre eigenen Einschränkungen und Anforderungen an Eingabeparameter haben. Die vorgeschlagene Lösung besteht darin, maschinelles Lernen als Ersatz oder Kombination dieser Modelle zu nutzen, da es einen erweiterten Satz an Funktionen und Eingabeparametern ermöglicht. Modelle für maschinelles Lernen können Faktoren wie implizite oder realisierte Volatilität, Zinssätze und andere relevante Merkmale berücksichtigen, um den fairen Preis von Optionen zu bestimmen. Dies ermöglicht eine genauere Preisgestaltung, Auswahl von Ausübungspreisen und Absicherungsstrategien. Varun betont, dass empirische Untersuchungen zeigen, dass Deep-Learning-Modelle mit mehreren verborgenen Schichten, wie etwa das Multi-Layer-Perceptron-Modell, das Black-Scholes-Modell übertreffen, insbesondere bei Optionen, die weit außerhalb des Geldes oder am Geld liegen.

Im weiteren Verlauf des Webinars wird die Optimierung von Handelsentscheidungen mithilfe von Modellen des maschinellen Lernens für Optionsstrategien untersucht. Der allgemeine Prozess umfasst die Analyse der bullischen oder bärischen Stimmung des Basiswerts und die entsprechende Auswahl einer geeigneten Strategie. Allerdings weisen viele Optionsstrategien eine verzerrte Risiko-Rendite-Verteilung auf, was eine genauere Analyse erforderlich macht. Maschinelles Lernen kann diese Analyse verbessern, indem es Merkmale wie vergangene Renditen, Momentum und Volatilität berücksichtigt, um Erkenntnisse über den zugrunde liegenden Vermögenswert zu gewinnen. Diese Merkmale werden dann in ein maschinelles Lernmodell eingegeben, um die nächste Handelsperiode als bullisch oder bärisch zu klassifizieren. Das Video geht auch auf die in den SP500-Indexdaten verwendeten Merkmale ein und betont die Bedeutung der Merkmalsanalyse bei Optionsstrategieentscheidungen.

Als nächstes konzentriert sich der Redner auf die Konstruktion von Modellen für maschinelles Lernen für Handelsentscheidungen zu vertikalen Options-Spreads. Sie erklären, dass die Eingabeparameter dieselben bleiben wie im vorherigen Beispiel, wo ein Entscheidungsbaumklassifikator verwendet wird, um den nächsten Handelstag als bullisch oder bärisch zu klassifizieren. Um Optionen auszunutzen, werden Spreads wie Bull-Call-Spreads oder Bear-Put-Spreads eingeführt, da diese das Risiko begrenzen. Modelle des maschinellen Lernens werden kombiniert, um die Handelsspanne und die Volatilität des Kontrakts vorherzusagen. Durch die Nutzung dieser kombinierten Modelle können Händler die optimalen Einstellungen für vertikale Spreads in ihren Handelsstrategien bestimmen und gleichzeitig die implizite Volatilität vorhersagen, die beim Optionshandel von entscheidender Bedeutung ist.

Eine weitere Anwendung des maschinellen Lernens im Optionshandel ist die Vorhersage der impliziten Volatilität und das Treffen kalkulierter Entscheidungen über Optionsstrategien. Durch die Eingabe historischer impliziter Volatilität und anderer relevanter Merkmale in Modelle für maschinelles Lernen können Händler die Volatilität vorhersagen und geeignete Strategien wie Short Straddles oder Short Strangles auswählen. Der Redner berichtet von einer Fallstudie, in der ein Modell für maschinelles Lernen erstellt wurde, um die am besten geeignete Optionsstrategie auf der Grundlage einer Liste von Strategien und Eingabemerkmalen, einschließlich zugrunde liegender Daten und Optionsdaten, vorherzusagen. Durch die Gestaltung eines Strategieuniversums und die Ausweitung der Studie auf verschiedene Kontrakte können Händler maschinelles Lernen nutzen, um die beste Strategie zu erstellen und auszuwählen, die ihren Handelszielen entspricht.

Im Webinar beschreibt der Referent, wie sie 27 verschiedene Strategien für den Optionshandel entwickelt haben, indem sie verschiedene Kombinationen von Positionen und Kontrakten untersucht haben. Um die Strategien zu verfeinern, haben sie sie auf 20 reduziert, indem sie Kombinationen eliminiert haben, bei denen eine Position in einem Caller fehlte oder die auf unpraktischen Kombinationen wie kurzen Straddles beruhten. Um zu bestimmen, welche dieser 20 Strategien den maximalen Ertrag bringen würde, verwendete der Redner ein Modell des maschinellen Lernens, insbesondere ein Modell des langen Kurzzeitgedächtnisses (LSTM). Dieses Modell umfasste Eingabemerkmale von zugrunde liegenden Vermögenswerten, Optionen und Volatilität und nutzte ein Klassifizierungssystem mit mehreren Klassen, um die optimale Strategie für den Einsatz zu ermitteln.

Das Video beleuchtet auch die Merkmale im Zusammenhang mit Optionsstufen und die Struktur des neuronalen Netzwerks, das für das LSTM-Modell verwendet wird. Beim Trainieren des Modells anhand von Daten aus etwa zehn Jahren generierte es Strategiebezeichnungen basierend auf den Eingabemerkmalen. Die Ergebnisse zeigten, dass das maschinelle Lernmodell im Laufe der Zeit den zugrunde liegenden Vermögenswert übertraf. Um die Vorhersagegenauigkeit von Machine-Learning-Modellen für Optionen zu verbessern, empfiehlt der Referent mehrere Best Practices. Dazu gehören die Nutzung von Wahrscheinlichkeitsniveaus zur Feinabstimmung, der Einsatz mehrerer Vision-Modelle, die Implementierung der Abstimmungsklassifikatortechnik und die Nutzung der Ergebnisse mehrerer Klassifikatoren zum Trainieren eines anderen maschinellen Lernmodells für verbesserte Genauigkeit und Rentabilität.

Darüber hinaus untersucht der Referent Methoden zur Verbesserung der Leistung von Klassifizierungsmodellen im Optionshandel. Diese Methoden umfassen die Nutzung von Wahrscheinlichkeitsniveaus, den Einsatz von Ensemble-Techniken durch die Kombination mehrerer Klassifikatoren und die Verwendung von Modellen des maschinellen Lernens, um die Ergebnisse verschiedener Modelle zu aggregieren. Die Bedeutung von Hyperparameter-Tuning und Kreuzvalidierungstechniken wird hervorgehoben, um eine höhere Genauigkeit der Modelle zu erreichen. Der Redner betont auch die Bedeutung des Papierhandels vor der Umsetzung einer Strategie mit echtem Geld. Diese Vorgehensweise ermöglicht es Händlern, praktische Probleme oder Herausforderungen zu erkennen und anzugehen, bevor sie tatsächliches Kapital riskieren.

In der anschließenden Frage-und-Antwort-Runde geht der Redner auf Fragen der Teilnehmer ein. Die Fragen decken verschiedene Themen ab, darunter die Leistung der maschinellen Lernstrategie für den Optionshandel, die zur Auswahl von Merkmalen für das Modell verwendete Methodik, die Vorteile des maschinellen Lernens gegenüber bestehenden technischen Indikatoren, die Berechnung der Merkmalsbedeutung und die angemessene Haltedauer für der SPY (Standard & Poor's 500 Index). Der Redner stellt klar, dass die Leistung der Strategie nicht allein auf die Marktrichtung im Jahr 2020 zurückzuführen ist, da die für das Modell verwendeten Daten bis ins Jahr 2010 zurückreichen und Zeiträume nach 2020 umfassen. Sie erklären, dass der Optionshandel eine detailliertere Analyse erfordert, die Faktoren wie Optionsgriechen berücksichtigt und implizite Volatilität, was maschinelles Lernen zu einem wertvollen Werkzeug macht. Die Auswahl der Funktionen für das Modell basiert auf einer Kombination aus Handelserfahrung und fundierter Entscheidungsfindung.

Gegen Ende des Webinars bespricht der Referent die Voraussetzungen für den begleitenden Kurs und empfiehlt Vorkenntnisse über maschinelles Lernen und verwandte Kurse, um dessen Nutzen zu maximieren. Während sich der Kurs in erster Linie auf die Erstellung von Modellen für maschinelles Lernen für den S&P 500-Optionshandel konzentriert, können die Konzepte durch weitere Schulung und Anpassung angepasst und auf andere Verträge angewendet werden. Der Kurs bietet kein vorgefertigtes Modell für maschinelles Lernen, sondern vermittelt den Teilnehmern das Wissen und die Fähigkeiten, die sie zum Erstellen eigener Modelle benötigen.

Das Webinar bietet einen umfassenden Überblick über die Anwendung von maschinellem Lernen im Optionshandel. Es behandelt die Grundlagen des maschinellen Lernens, seine Unterschiede zu anderen verwandten Bereichen und die drei Arten von Algorithmen für maschinelles Lernen. Das Webinar betont die Notwendigkeit von maschinellem Lernen im Optionshandel, da es die Analysegenauigkeit verbessern und Risiken mindern kann. Es werden verschiedene Anwendungen des maschinellen Lernens im Optionshandel besprochen, darunter die Preisgestaltung von Optionen, die Gestaltung von Handelsstrategien und die Prognose der impliziten Volatilität. Das Webinar befasst sich außerdem mit der Konstruktion maschineller Lernmodelle für vertikale Options-Spreads und der Optimierung von Handelsentscheidungen.

  • 00:00:00 Der Redner Varun Kumar Patula stellt die Agenda des Webinars zum Thema maschinelles Lernen für den Optionshandel vor. Er beginnt mit einer kurzen Einführung in maschinelles Lernen und seinen Hauptzweck, maschinelle Lernalgorithmen zu verwenden, um Daten zu verstehen oder zu analysieren und interne Muster zu finden, die Menschen normalerweise übersehen. Anschließend erklärt Varun die Unterschiede zwischen künstlicher Intelligenz, maschinellem Lernen und Deep Learning. Er weist außerdem darauf hin, dass es drei Arten von Algorithmen für maschinelles Lernen gibt: überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen. Abschließend unterstreicht er die Notwendigkeit der Anwendung von maschinellem Lernen im Optionshandel und geht auf die wichtigsten Anwendungen ein, die es sowohl in der Forschung als auch in der Praxis gibt, sowie auf die Best Practices, die bei der Anwendung maschineller Lerntechniken für den Optionshandel zu beachten sind.

  • 00:05:00 Der Referent stellt das Konzept des maschinellen Lernens und seine Anwendung in verschiedenen Bereichen vor, insbesondere in Finanzdienstleistungen wie algorithmischem Handel, Portfoliomanagement und Betrugserkennung. Der Schwerpunkt dieses Webinars liegt auf der Anwendung von maschinellem Lernen für den Optionshandel. Der Sprecher erklärt, dass es sich beim Optionshandel um den Kauf oder Verkauf von Optionskontrakten handelt, die die Möglichkeit bieten, zu einem bestimmten festgelegten Preis und einer bestimmten Schuld zu kaufen oder zu verkaufen. Händler nutzen den Optionshandel zur Absicherung, zur Einkommensgenerierung oder zur Spekulation. Der Referent hebt das hohe Risiko beim Optionshandel hervor und erklärt, wie maschinelles Lernen die Genauigkeit der Analyse erhöhen und dadurch das Risiko reduzieren kann. Maschinelles Lernen wird bei der Preisgestaltung von Optionen, der Entwicklung von Handelsstrategien, der Berechnung der Volatilität und der Prognose der impliziten Volatilität einer Option eingesetzt. Der Abschnitt schließt mit der Erörterung der Einschränkungen des häufig verwendeten Black-Scholes-Modells.

  • 00:10:00 Die Einschränkungen des Black-Scholes-Modells, wie die Annahme eines konstanten risikofreien Zinssatzes und einer konstanten Volatilität, werden zusammen mit anderen Modellen wie dem German Candy-Modell und dem Heston-Modell diskutiert, die ihre eigenen Einschränkungen hinsichtlich der Eingabeparameter haben. Die vorgeschlagene Lösung besteht darin, maschinelles Lernen als Ersatz oder Kombination dieser Modelle zu implementieren, da maschinelles Lernen im Gegensatz zu herkömmlichen Modellen eine Erweiterung des Funktionsumfangs und erweiterte Eingabeparameter ermöglicht. Das ML-Modell kann den fairen Preis von Optionen ermitteln, indem es implizite oder realisierte Volatilität, Zinssätze und andere Merkmale als Eingaben verwendet und so Preisgestaltung, Ausübungspreisauswahl und Absicherungsanwendungen ermöglicht. Empirische Untersuchungen zeigen, dass das Modell mit der besten Leistung das Deep-Learning-Modell mit mehreren verborgenen Schichten ist, das Multi-Layer-Perceptron-Modell, das das Black-Scholes-Modell übertrifft, insbesondere wenn es weit außerhalb des Geldes oder am Geld liegt.

  • 00:15:00 Im Video wird erläutert, wie maschinelles Lernen zur Optimierung von Handelsentscheidungen mithilfe von Optionsstatusstrategien eingesetzt werden kann. Der allgemeine Prozess für einen Händler besteht darin, den zugrunde liegenden Vermögenswert zu analysieren und zu entscheiden, ob er bullisch oder bärisch ist, und darauf basierend eine Strategie auszuwählen. Viele Optionsstrategien sind jedoch sehr riskant und weisen eine Schiefe in der Risiko-Ertrags-Verteilung auf. Daher kann die Implementierung von maschinellem Lernen die Analyse des zugrunde liegenden Vermögenswerts verbessern und eine bessere Stimmungsanalyse ermöglichen. Das Schema zum Aufbau einer ML-Architektur beinhaltet die Verwendung von ML-Modellen, um Stimmungsanalysen durchzuführen oder den zugrunde liegenden Vermögenswert vorherzusagen. Merkmale wie frühere Renditen, Momentum und Volatilität werden verwendet, um Informationen über den Vermögenswert zu liefern, und diese werden in das maschinelle Lernmodell eingegeben, um zu klassifizieren, ob die nächste Handelsperiode bullisch oder bärisch sein wird. Das Video erläutert außerdem die in den SP500-Indexdaten verwendeten Merkmale und die Bedeutung der Merkmalsanalyse.

  • 00:20:00 Der Redner diskutiert die Konstruktion von Modellen für maschinelles Lernen für Handelsentscheidungen zu vertikalen Options-Spreads. Die Eingabeparameter bleiben die gleichen wie im vorherigen Beispiel, wo ein Entscheidungsbaumklassifikator verwendet wird, um den nächsten Handelstag als bullisch oder bärisch zu klassifizieren. Um Optionen auszunutzen, werden Spreads eingeführt, beispielsweise Bull-Call-Spreads oder Bear-Put-Spreads, bei denen das Risiko begrenzt ist. Die Idee, Modelle für maschinelles Lernen zu kombinieren, kommt ins Spiel, wenn ein Modell die Handelsspanne vorhersagt und ein anderes Modell vorhersagt, ob der Kontrakt sehr volatil oder niedrig sein wird. Mithilfe der Kombinationen dieser Modelle kann ein Händler die optimalen vertikalen Spread-Einstellungen für Handelsstrategien festlegen und gleichzeitig die implizite Volatilität vorhersagen, was besonders für den Optionshandel wichtig ist.

  • 00:25:00 Der Referent erklärt, wie Modelle des maschinellen Lernens im Optionshandel eingesetzt werden können, indem implizite Volatilität vorhergesagt und kalkulierte Entscheidungen über die zu ergreifende Strategie getroffen werden. Durch die Eingabe historischer impliziter Volatilität und anderer Merkmale als Eingaben für Modelle des maschinellen Lernens können Händler die Volatilität vorhersagen und entsprechend Positionen mit Strategien wie Short Straddle oder Short Strangle einnehmen. Anschließend beschreibt der Referent eine Fallstudie, in der ein Modell für maschinelles Lernen erstellt wurde, um anhand einer Liste von Strategien und Eingabefunktionen wie zugrunde liegenden Daten und Optionsdaten vorherzusagen, welche Optionsstrategie eingesetzt werden soll. Durch die Gestaltung des Strategieuniversums und die Erweiterung der Studie auf verschiedene Kontrakte können Händler maschinelles Lernen nutzen, um die beste Strategie für ihre Handelsanforderungen zu erstellen und auszuwählen.

  • 00:30:00 Der Referent erklärt, wie sie 27 verschiedene Strategien für den Optionshandel unter Verwendung verschiedener Kombinationen von Positionen und Kontrakten entwickelt haben. Sie haben diese Strategien auf 20 heruntergefiltert, indem sie Kombinationen entfernt haben, die keine Position in einem Caller beinhalteten, oder sich auf unpraktische Kombinationen wie kurze Straddles verlassen haben. Anschließend verwendeten sie ein Modell des maschinellen Lernens, insbesondere ein Modell des langen Kurzzeitgedächtnisses, um zu bestimmen, welche dieser 20 Strategien die maximale Rendite bringen würde. Das Modell nutzte Eingabemerkmale von zugrunde liegenden Vermögenswerten, Optionen und Volatilität und nutzte ein Klassifizierungssystem mit mehreren Klassen, um die beste Strategie für die Umsetzung zu ermitteln.

  • 00:35:00 Das Video diskutiert die Verwendung bestimmter Funktionen im Zusammenhang mit Optionsstufen und die Struktur des neuronalen Netzwerks, das für das LSTM-Modell verwendet wird. Das Modell wird auf Daten von etwa 10 Jahren trainiert und liefert Strategiebezeichnungen basierend auf den Eingabemerkmalen. Die Ergebnisse zeigen, dass es im Laufe der Zeit besser abschneidet als der zugrunde liegende Vermögenswert. Zu den empfohlenen Best Practices für eine bessere Vorhersage maschineller Lernmodelle für Optionen gehören die Verwendung von Wahrscheinlichkeitsniveaus zur Feinabstimmung, die Verwendung mehrerer Visionsmodelle, die Verwendung der Voting-Klassifikatortechnik und die Weitergabe der Ausgabe mehrerer Klassifikatoren an ein anderes ML-Modell für eine bessere Genauigkeit und Rentabilität.

  • 00:40:00 Der Redner erörtert Methoden zur Verbesserung der Leistung eines Klassifizierungsmodells für den Optionshandel, z. B. die Verwendung von Wahrscheinlichkeitsniveaus, die Multiplikation von Bäumen, die Kombination verschiedener Klassifikatoren mithilfe von Working-Class-Fair-Techniken und die Verwendung eines Modells für maschinelles Lernen, um die Ausgabe mehrerer zu ermitteln Modelle als Eingabe. Der Redner betont auch die Bedeutung von Hyperparameter-Tuning und Kreuzvalidierungstechniken für eine höhere Genauigkeit. Darüber hinaus wird die Bedeutung des Papierhandels vor der Umsetzung einer Strategie hervorgehoben, da er es einem ermöglicht, praktische Probleme zu erkennen, bevor man echtes Geld einsetzt. Es folgt eine Frage-und-Antwort-Runde, bei der ein Teilnehmer nach den Erfahrungen des Redners fragt.

  • 00:45:00 Der Redner erörtert den Einsatz von Delta im Optionshandel und erklärt, dass es abhängig von der Risiko-Ertrags-Kapazität und den zugrunde liegenden Vermögenswerten im Portfolio eine profitable Strategie sein kann. Sie warnen davor, sich ausschließlich auf eine Delta-Hedge-Strategie zu verlassen, und schlagen vor, diese in Verbindung mit anderen Strategien zu verwenden. Der Redner geht auch auf Fragen zur Verwendung von Modellen ein, die nicht den Marktpreisen entsprechen, zur Berechnung der Feature-Bedeutung und zur Haltedauer für den SPY. Sie erklären, wie die Bedeutung von Merkmalen berechnet wird, und geben an, dass unterschiedliche Haltedauern für die Prognose des zugrunde liegenden Vermögenswerts verwendet werden können.

  • 00:50:00 Der Redner beantwortet Fragen von Zuschauern im Zusammenhang mit der Leistung der maschinellen Lernstrategie für den Optionshandel und der Methodik, mit der die Funktionen für das Modell ermittelt werden. Sie erklären, dass die Leistung der Strategie nicht allein auf die Ausrichtung des Marktes im Jahr 2020 zurückzuführen ist, da die für das Modell verwendeten Daten bis ins Jahr 2010 zurückreichen und über 2020 hinausgehen. Auf die Frage nach den Vorteilen des maschinellen Lernens gegenüber bestehenden technischen Indikatoren betont der Redner dass der Optionshandel eine komplexere Datenanalyse erfordert, einschließlich Optionsgriechen und impliziter Volatilität, was maschinelles Lernen zu einem wertvollen Werkzeug macht. Abschließend erklärt der Redner, dass die Funktionen für das Modell auf der Grundlage einer Kombination aus Handelserfahrung und fundierten Entscheidungen ausgewählt wurden.

  • 00:55:00 Der Redner erörtert die verschiedenen Faktoren, die bei fundierten Handelsentscheidungen mithilfe von maschinellem Lernen eine Rolle spielen, wie z. B. vergangene Renditen und technische Indikatoren. Sie erwähnen auch die Verwendung von Funktionen, die häufig von manuellen Händlern und Brokern genutzt werden. Auf eine Frage zum LSTM-Modell erklären sie, dass die aktuellen Ergebnisse zwar auf Tagesdaten basieren, Hoch- oder Mittelfrequenz-Handelsalgorithmen jedoch auch Tick-by-Tick-Daten verwenden können. Bei einer weiteren Frage geht es um die Anzahl der Trades im Trainingssatz, wobei erklärt wird, dass dies vom Einzelfall abhängt und das Verhältnis 70:30 beträgt. Schließlich unterscheiden sie zwischen dem Mischen und Stapeln von Ensemble-Modellen und erklären, wie beim Mischen die Ausgaben mehrerer Modelle verwendet werden, um ein neues Modell zu trainieren.

  • 01:00:00 Der Kurs behandelt die Grundlagen des maschinellen Lernens und seine Anwendung auf den Optionshandel. Der Kurs konzentriert sich auf die Erstellung von Machine-Learning-Modellen speziell für den SP500-Optionshandel, aber die Konzepte können mit weiterer Schulung und Optimierung auch auf andere Verträge angewendet werden. Der Kurs bietet kein gebrauchsfertiges Modell für maschinelles Lernen, vermittelt jedoch die Kenntnisse und Fähigkeiten, die zum Erstellen eines solchen Modells erforderlich sind.

  • 01:05:00 In diesem Abschnitt bespricht der Referent die Voraussetzungen für den Kurs und erwähnt, dass Vorkenntnisse in maschinellem Lernen und verwandten Kursen hilfreich wären, um das Beste aus diesem Kurs herauszuholen. Der Referent nimmt auch die zahlreichen eingegangenen Fragen zur Kenntnis und versichert den Zuhörern, dass diese am Ende des Webinars durch eine Umfrage beantwortet werden. Das Webinar endet damit, dass sich der Redner beim Publikum bedankt und es ermutigt, Feedback zur Verbesserung künftiger Sitzungen zu geben.
Machine Learning for Options Trading | Options Trading Strategies
Machine Learning for Options Trading | Options Trading Strategies
  • 2023.01.19
  • www.youtube.com
This session explains the application of machine learning for options trading. It covers the process of creating options trading strategies using machine lea...
 

Portfolio-Vermögensallokation mit ML und Optimierung für Dividendenaktien | Algo-Handelsprojekt



Portfolio-Vermögensallokation mit ML und Optimierung für Dividendenaktien | Algo-Handelsprojekt

Der erste Vortrag auf der Veranstaltung wird von Raimondo Mourinho gehalten, einem unabhängigen KI- und Big-Data-Ingenieur, der für seine Arbeit mit kleinen und mittleren Unternehmen in Italien bekannt ist und KI-Lösungen für verschiedene Unternehmensfunktionen bereitstellt. Mourinho glaubt an die Kombination von maschinellen Lerntechniken, Statistiken und Wahrscheinlichkeiten, um fortschrittliche Handelssysteme zu schaffen. In seiner Präsentation stellt er sein praktisches und skalierbares Framework für die Entwicklung von Modellen für maschinelles Lernen in der Portfolio-Asset-Allokation vor.

Mourinho stellt zunächst die Schlüsselkomponenten vor, die zum Entwurf eines solchen Systems erforderlich sind. Er betont, wie wichtig es ist, eine Portfolio-Denkweise anzunehmen, Modelle des maschinellen Lernens zu nutzen, um Ideen in umsetzbare Strategien umzuwandeln, und die Leistungsfähigkeit von Multi-CPU-, Multi-Core- und GPU-Funktionen zu nutzen. Diese Zutaten bilden die Grundlage seines Rahmenwerks. Während er kurz die Notwendigkeit einer Infrastruktur bei der Inbetriebnahme erwähnt, konzentriert er sich auf die elementaren Blöcke des Rahmenwerks für den Handel mit niedriger bis mittlerer Frequenz und räumt ein, dass der letzte Teil des Rahmenwerks den Rahmen der Präsentation sprengen würde.

Anschließend geht der Redner auf die Kompetenzen ein, die zum Aufbau eines robusten Rahmens für die Portfolio-Asset-Allokation mithilfe von maschinellem Lernen und Optimierung für Dividendenaktien in Python erforderlich sind. Er betont die Notwendigkeit eines umfassenden Verständnisses von Portfoliotechniken, objektorientierter Programmierung, Multiverarbeitungstechniken und asynchroner Programmierung. Darüber hinaus werden Fachkenntnisse in Hyperparameter-Optimierungstools, SQL-Sprache und Docker-Technologie als wertvoll erachtet. Mourinho erklärt dann den ersten Schritt des Frameworks, der die Optimierung einer Datenbank für Zeitreihen, die Datenvorverarbeitung, den Umgang mit fehlenden Daten und Ausreißern, die Normalisierung von Daten und die Durchführung der Asset-Auswahl innerhalb des festgelegten Asset-Universums umfasst.

In der Präsentation geht es dann um die Phase der Alpha-Generierung, die der Terminologie des maschinellen Lernens zur Generierung von Handelssignalen entspricht. Mourinho betont, dass Händler in dieser Phase ihre Ideen mithilfe verschiedener Indikatoren, Stimmungsanalysen und ökonometrischen Modellen umsetzen. Der anschließende Schritt umfasst die Merkmalsauswahl, bei der redundante Merkmale, wie konstante und quasikonstante Merkmale, instationäre Merkmale und linear korrelierte Merkmale, mithilfe einer rangbasierten Methode entfernt werden. Darüber hinaus erwähnt er die Verwendung der fraktionalen Differenzierung, einer Technik, die die gewünschte Stationarität aufrechterhält und gleichzeitig wichtige Informationen innerhalb der Merkmale bewahrt. Diese Verbesserungen sind ein wesentlicher Bestandteil von Mourinhos Rahmen für die Portfolio-Asset-Allokation unter Verwendung von maschinellem Lernen und Optimierung für Dividendenaktien.

Die Neuausrichtung, die die Auswahl von Vermögenswerten und die Gewichtsverteilung umfasst, wird in der Lernpipeline ausführlich erläutert. Mourinho nutzt für die Vermögensauswahl die Querschnittsdynamik, die auf der relativen Stärke zwischen Vermögenswerten basiert. Für die Gewichtsverteilung kombiniert er traditionelle Techniken wie den Critical-Line-Algorithmus, das Inverse-Volatility-Portfolio und das gleichgewichtete Portfolio mit maschinellen Lernmodellen wie hierarchischer Risikoparität und hierarchischem gleichen Risikobeitrag. Der Referent stellt Simulationsergebnisse vor und bewertet die Leistung anhand historischer Daten. Er erwähnt auch seine Absicht, das Portfolio durch die Integration von Techniken wie der Drunken-Monkey-Strategie und der kombinatorisch bereinigten Kreuzvalidierung weiter zu verbessern. Darüber hinaus betont Mourinho die Bedeutung eines effektiven Geldmanagements bei der Anwendung dieser Techniken auf Live-Handelsszenarien.

Um die Schätzung der Parametervariabilität anzugehen, empfiehlt Mourinho den Einsatz von Techniken wie Monte-Carlo-Simulation und Bootstrapping. Er stellt die Ergebnisse seiner Analyse vor und konzentriert sich dabei auf das Endvermögen und die maximalen Drawdown-Perzentile. Der Redner betont, wie wichtig es ist, datengesteuert zu bleiben und sich nicht zu sehr an bestimmte Handelsideen zu klammern. Er empfiehlt außerdem, idiosynkratische Risiken durch den Einsatz unterschiedlicher Techniken zu mindern und eine Überanpassung durch die Auswahl einfacherer Systeme mit vergleichbarer Leistung zu vermeiden. Abschließend unterstreicht er die Notwendigkeit, Live-Handelssysteme aufgrund der instationären Natur von Zeitreihendaten kontinuierlich zu überwachen und anzupassen.

Während der Frage-und-Antwort-Runde beantwortet Mourinho mehrere Fragen des Publikums. Ein Teilnehmer fragt nach dem kritischsten Schritt in der Pipeline, wobei Mourinho die Datenvorverarbeitung als wesentlich und zeitaufwändig hervorhebt. Eine andere Frage dreht sich um die Datennormalisierung, und Mourinho schlägt die übliche Praxis vor, in den meisten Fällen den Mittelwert zu subtrahieren und durch die Standardabweichung zu dividieren. In Bezug auf die Entfernung linearer Korrelationen mithilfe der Hauptkomponentenanalyse (PCA) erkennt er deren Möglichkeit an, warnt jedoch vor dem möglichen Bedeutungsverlust der Merkmale und schlägt vor, Modelle wie das Sharpe-Verhältnis in Betracht zu ziehen, um die Ergebnisse effektiv zu interpretieren.

Anschließend erörtert der Redner die Verwendung von PCA für die Feature-Auswahl und ihre möglichen Auswirkungen auf die Interpretierbarkeit der Features. Angehenden quantitativen und algorithmischen Händlern wird empfohlen, EPAT (Executive Program in Algorithmic Trading) als wertvollen Ausgangspunkt in Betracht zu ziehen. Sie betonen, dass das Programm umfassende Lernziele bietet, die auf die Anforderungen der Branche abgestimmt sind. Den Teilnehmern des Webinars wird ein verlängerter Frühbucherzugang zum Programm angeboten und sie können ein Kursberatungsgespräch buchen, um zu erfahren, wie es ihnen beim Erreichen ihrer Karriereziele helfen kann, sei es die Einrichtung eines algorithmischen Trading Desks oder die Integration fortschrittlicher Technologien und Tools in ihren Handel Strategien.

Kurt Celestog, Projektmanager bei Hong Kong Exchange and Clearing Limited, betritt die Bühne, um sein Projekt zum Thema Portfoliomanagement vorzustellen, das Jay Palmers Vortrag über quantitatives Portfoliomanagement erweitert. Das Projekt von Celestog konzentriert sich auf die Optimierung der Dividendenrendite durch Portfoliomanagement. Sein Ziel ist es, regelmäßige Dividendenerträge zu generieren und gleichzeitig Stabilität und Wachstum der Dividendenausschüttungen zu gewährleisten und gleichzeitig den Wert des Portfolios zu erhalten. Sein Ziel ist es, durch optimale Portfoliomanagementtechniken den Referenzindex oder ETF sowohl bei der Dividendenrendite als auch bei der Kursrendite zu übertreffen. Celestog stand vor der Herausforderung, Dividendendaten zu beschaffen und entwickelte Web-Scraping-Funktionen zum Herunterladen dieser Daten. Er unterteilte den Datensatz in zwei Teile, die jeweils zehn Jahre abdeckten und wirtschaftliche Rezessionen und Expansionen umfassten.

Der Redner erörtert die Herausforderungen, die beim Datenbereinigungsprozess zur Optimierung des Dividendenaktienportfolios auftreten. Die von der Website erhaltenen Daten waren nicht sauber und erforderten Modifikationen und Normalisierungen, um Dividenden in Dollarbeträgen auszudrücken, insbesondere da die frühen Dividenden ursprünglich als Prozentsätze dargestellt wurden. Die Preisdaten stammen von Yahoo Finance und es wurden Kennzahlen wie die jährliche Dividendenrendite, das Dividendenwachstum und das durchschnittliche Wachstum berechnet. Für alle ausgewählten Aktien wurde ein zusammengesetztes Verhältnis abgeleitet, um zwei Portfolios zu erstellen: ein gleichgewichtetes Portfolio und ein gewichtungsoptimiertes Portfolio. Der Redner wollte analysieren, ob eine einzelne Optimierung, gefolgt von einer zehnjährigen Haltedauer, die Benchmark und den ETF übertreffen würde.

Anschließend teilt der Referent die Ergebnisse des Portfoliooptimierungsprojekts unter Einsatz maschineller Lerntechniken. Die dargestellten Grafiken zeigen grüne Blasen im oberen linken Quadranten, die die fünf Aktien mit der höchsten kombinierten Kennzahl darstellen. Sowohl die gleichgewichteten als auch die optimal gewichteten Portfolios wiesen höhere Durchschnittsrenditen und Dividendenrenditen auf als die Benchmark. Allerdings gewannen Bank- und Technologiewerte in den nächsten zehn Jahren immer mehr an Beliebtheit, was dazu führte, dass die Performance des optimierten Portfolios im Vergleich zur Benchmark zurückging. Um die Leistung zu verbessern, experimentierte der Redner damit, die Portfolios regelmäßig neu auszurichten und die fünf besten Aktien basierend auf der gewählten Kennzahl auszuwählen. Die neu gewichteten Portfolios übertrafen die Benchmark und wiesen eine höhere Dividendenrendite auf.

Der Redner betont, wie Portfoliooptimierung und regelmäßige Neuausrichtung zu höheren Dividendenrenditen führen und Benchmark-Indizes übertreffen können, insbesondere bei Dividendenaktien wie Real Estate Investment Trusts (REITs). Durch die Neuausrichtung der Portfolios alle sechs Monate und die Untersuchung verschiedener Rückblickszeiträume konnte der Redner den Index in Bezug auf durchschnittliche Dividendenrendite, Dividendenwachstum, Rendite und geringere Drawdowns erfolgreich übertreffen. Sie erkennen jedoch die Herausforderungen bei der Beschaffung und Bereinigung von Daten an und stellen fest, dass die Neuausgleichsfunktion komplex sein kann, und schlagen den Einsatz objektorientierter Programmierung vor, um dieser Komplexität zu begegnen. Insgesamt betont der Redner, dass Portfoliooptimierung und regelmäßige Neuausrichtung wertvolle Instrumente für Anleger sind.

Der Referent weist darauf hin, dass eine häufige Neuausrichtung des Portfolios entscheidend für die Erzielung einer Outperformance ist. Aufgrund der seltenen Verfügbarkeit von Dividendendaten für Dividendenaktien ist es jedoch schwierig, häufiger als ein- oder zweimal im Jahr eine Neuausrichtung vorzunehmen. Der Redner betont auch die Notwendigkeit weiterer Arbeiten am Projekt, einschließlich der Untersuchung verschiedener Optimierungskriterien, der Aufnahme weiterer Aktien in das Portfolio zur besseren Diversifizierung und der Durchführung umfangreicher Backtestings. Sie schlagen vor, das Leseuniversum zu erweitern und die Auswirkungen von Transaktionskosten auf die Portfolio-Performance zu diskutieren.

Während der Frage-und-Antwort-Runde beantwortet Celestog Fragen des Publikums. Ein Teilnehmer fragt nach der Performance des gleichgewichteten Portfolios im Vergleich zum optimierten Portfolio. Celestog erklärt, dass das gleichgewichtete Portfolio im Allgemeinen eine gute Leistung erbrachte, das optimierte Portfolio jedoch höhere Renditen erbrachte, was die Wirksamkeit von Portfoliooptimierungstechniken demonstriert. Ein anderer Teilnehmer erkundigt sich nach den Auswirkungen der Transaktionskosten auf die Wertentwicklung des Portfolios. Celestog erkennt an, dass Transaktionskosten einen erheblichen Einfluss haben können und schlägt vor, sie in den Optimierungsprozess einzubeziehen, um eine genauere Darstellung der tatsächlichen Leistung zu erhalten. Er weist auch darauf hin, wie wichtig es ist, Slippage in Live-Handelsszenarien zu berücksichtigen, und rät den Teilnehmern, ihre Strategien gründlich anhand historischer Daten zu testen, bevor sie sie im Live-Handel umsetzen.

Insgesamt beleuchten die Präsentationen des Webinars die praktischen Aspekte der Portfolio-Asset-Allokation mithilfe von maschinellem Lernen und Optimierungstechniken für Dividendenaktien. Die Redner betonten die Bedeutung der Datenvorverarbeitung, Funktionsauswahl, Neuausrichtung und regelmäßigen Überwachung, um erfolgreiche Ergebnisse zu erzielen. Sie betonten auch die Notwendigkeit kontinuierlichen Lernens, Anpassungsfähigkeit und der Erforschung verschiedener Strategien, um die dynamische Natur der Finanzmärkte zu bewältigen. Das Publikum gewann wertvolle Einblicke in die Herausforderungen, Techniken und potenziellen Vorteile des Einsatzes von maschinellem Lernen im Portfoliomanagement.

  • 00:00:00 Der erste Vortrag befasst sich mit der Portfolio-Asset-Allokation, präsentiert von Raimondo Mourinho. Mourinho ist ein unabhängiger KI- und Big-Data-Ingenieur, der mit verschiedenen kleinen und mittleren Unternehmen in Italien zusammenarbeitet, um KI-End-to-End-Lösungen für Unternehmensfunktionen wie Marketing, Personalwesen, Vertrieb und Produktion zu entwickeln. Er glaubt an die Kombination maschineller Lerntechniken mit Statistiken und Wahrscheinlichkeiten, um überlegene Handelssysteme zu entwickeln. In der Präsentation stellt Mourinho sein praktisches und skalierbares Framework für die Entwicklung maschinellen Lernens bei der Portfolio-Asset-Allokation vor.

  • 00:05:00 Der Redner stellt den skalierbaren Rahmen für die Portfolio-Gewichtungsverteilung vor und erläutert die Zutaten, die zum Entwerfen eines solchen Systems erforderlich sind. Zu den drei Zutaten gehören das Entwerfen eines Systems mit einer Portfolio-Denkweise, die Verwendung von Modellen des maschinellen Lernens zur Umsetzung von Ideen und die Nutzung von Multi-CPU-, Multi-Core- und GPU-Funktionen. Der Referent erläutert außerdem die Grundbausteine des Rahmenwerks für den Nieder- und Mittelfrequenzhandel und geht kurz auf die Notwendigkeit einer Infrastruktur beim Go-Live ein. Der Redner geht nicht auf den letzten Teil des Rahmenwerks ein, da dieser außerhalb des Rahmens der Präsentation liegt.

  • 00:10:00 Der Redner bespricht die erforderlichen Kompetenzen zum Aufbau eines Frameworks für die Portfolio-Asset-Allokation mithilfe von maschinellem Lernen und Optimierung für Dividendenaktien in Python mit Klassen. Kompetenzen wie Kenntnisse in Portfolio-Techniken, objektorientierter Programmierung, Multi-Processing-Techniken und asynchroner Programmierung sind erforderlich. Wichtig ist auch der Einsatz von Hyperparameter-Optimierungstools, Kenntnisse der SQL-Sprache und der Docker-Technologie. Anschließend geht der Redner auf den ersten Schritt des Frameworks ein, der die Optimierung einer Datenbank für Zeitreihen, die Datenvorverarbeitung, den Umgang mit fehlenden Daten und Ausreißern, die Datennormalisierung und die Durchführung der Asset-Auswahl innerhalb des Asset-Universums umfasst.

  • 00:15:00 Der Redner diskutiert die Alpha-Generierungsphase im Hinblick auf die Terminologie des maschinellen Lernens, die unter Händlern allgemein als Alpha-Generierungsphase bekannt ist. In dieser Phase fügt der Händler mithilfe verschiedener Indikatoren, Stimmungsanalysen und ökonometrischen Modellen alle Ideen hinzu, die ihm in den Sinn kommen. Der nächste Schritt ist die Feature-Auswahlphase, in der unnötige Features entfernt werden, einschließlich konstanter und quasi-konstanter Features, instationärer Features und linear korrelierter Features mithilfe einer rangbasierten Methode. Der Sprecher erwähnt auch die Verwendung der fraktionalen Differenzierung, die die gewünschte Stationarität ermöglicht und gleichzeitig einige Informationen innerhalb des Features selbst behält. Dies sind die Verbesserungen, an denen der Redner im Rahmen seines Rahmenwerks für die Portfolio-Asset-Allokation mit ML und die Optimierung für Dividendenaktien arbeitet.

  • 00:20:00 Der Redner erklärt die Neuausrichtungsphase der Lernpipeline, die die Auswahl der Assets und die Gewichtsverteilung umfasst. Für die Auswahl der Vermögenswerte nutzt der Redner die Querschnittsdynamik basierend auf der relativen Stärke zwischen den Vermögenswerten. Für die Gewichtszuteilung werden traditionelle Techniken wie der Critical-Line-Algorithmus, das Inverse-Volatility-Portfolio und das gleichgewichtete Portfolio zusammen mit Modellen des maschinellen Lernens wie hierarchische Risikoparität und hierarchischer gleicher Risikobeitrag verwendet. Die Ergebnisse von Simulationen werden gezeigt und der Redner bewertet die Leistung anhand historischer Daten. Der Redner plant, das Portfolio durch das Hinzufügen von Techniken wie der Drunken Monkey-Strategie und der kombinatorischen bereinigten Kreuzvalidierung zu verbessern. Abschließend betont der Redner die Bedeutung des Geldmanagements bei der Anwendung dieser Techniken auf den Live-Handel.

  • 00:25:00 Der Redner erörtert die Bedeutung der Schätzung des Variabilitätsbereichs von Parametern und schlägt den Einsatz von Techniken wie Monte-Carlo-Simulation und Bootstrapping vor, um dies zu erreichen. Anschließend präsentieren sie die Ergebnisse ihrer Analyse mit Schwerpunkt auf Endvermögen und maximalen Drawdown-Perzentilen. Der Redner betont die Notwendigkeit, datengesteuert zu sein und sich nicht in Handelsideen zu verlieben. Sie empfehlen außerdem, das idiosynkratische Risiko durch den Einsatz unterschiedlicher Techniken zu mindern und eine Überanpassung durch die Wahl einfacherer Systeme mit vergleichbarer Leistung zu vermeiden. Abschließend betonen sie die Notwendigkeit, Live-Handelssysteme aufgrund der stark instationären Natur von Zeitreihen zu überwachen und anzupassen.

  • 00:30:00 Die Referenten diskutieren einige Fragen des Publikums zur Portfolio-Vermögensallokation mithilfe von ML und zur Optimierung für Dividendenaktien. Ein Zuschauer fragt, welcher Schritt in der Pipeline die meiste Aufmerksamkeit verdient, worauf Raymond antwortet, dass die Datenvorverarbeitung unerlässlich und der zeitaufwändigste Schritt sei. Bei einer weiteren Frage geht es um die Datennormalisierung, und Raymond schlägt vor, dass das Subtrahieren des Mittelwerts und das Dividieren durch die Standardabweichung in den meisten Fällen gut funktioniert. Auf die Frage, ob die lineare Korrelation mithilfe der PCA entfernt werden soll, erwähnt Raymond abschließend, dass dies möglich sei, warnt jedoch davor, dass dies dazu führen könnte, dass die Bedeutung des Merkmals verloren geht, und schlägt vor, Modelle wie Sharpe Ratio zur Erklärung der Ergebnisse zu verwenden.

  • 00:35:00 Der Referent diskutiert die Verwendung von PCA zur Merkmalsauswahl und den möglichen Bedeutungsverlust der Merkmale nach der Anwendung von PCA. Er rät angehenden quantitativen und algorithmischen Händlern, EPAT als einen guten Einstieg in Betracht zu ziehen, und erwähnt, dass das Programm umfassende Lernziele bietet, die auf die Bedürfnisse der Branche abgestimmt sind. Der Frühbucherzugang zum Programm gilt auch für Webinar-Teilnehmer, und sie können ein Kursberatungsgespräch buchen, um zu erfahren, wie das Programm ihnen beim Erreichen ihrer Karriereziele helfen kann, einschließlich der Gründung eines Algo-Trading-Desks oder der Anwendung fortschrittlicher Technologien und Tools in ihren Handelsstrategien.

  • 00:40:00 Kurt Celestog, Projektmanager bei Hong Kong Exchange and Clearing Limited, stellt sein Projekt zum Thema Portfoliomanagement vor, das Jay Palmers Vortrag über quantitative Portfoliomanager auf die Optimierung der Dividendenrendite durch Portfoliomanagement erweitert. Seine Motivation besteht darin, regelmäßige Dividendeneinnahmen zu erzielen und gleichzeitig sicherzustellen, dass seine Dividendenausschüttungen stabil sind und mit der Zeit wachsen und dass der Portfoliowert mit der Zeit nicht sinkt. Sein Ziel ist es, den Referenzindex oder ETF durch optimale Portfoliomanagementtechniken sowohl bei der Dividendenrendite als auch bei der Kursrendite zu übertreffen. Celestog stand vor der Herausforderung, Dividendendaten zu erhalten, musste Web-Scraping-Funktionen programmieren, um diese herunterzuladen, und teilte den Datensatz in zwei Teile zu jeweils 10 Jahren auf, die wirtschaftliche Rezessionen und Expansionen abdeckten.

  • 00:45:00 Der Redner erörtert die Herausforderungen bei der Datenbereinigung zur Optimierung des Dividendenaktienportfolios. Die Daten auf der Website waren nicht sauber und mussten geändert und normalisiert werden, damit Dividenden in Dollarbeträgen ausgedrückt werden konnten, wobei die vorzeitigen Dividenden in Prozent angegeben wurden. Preisdaten wurden von Yahoo Finance bezogen und aus den Daten wurden Kennzahlen wie jährliche Dividendenrendite, Dividendenwachstum, durchschnittliches Wachstum und andere Preiskennzahlen berechnet. Für alle verschiedenen ausgewählten Aktien wurde ein zusammengesetztes Verhältnis berechnet, das zur Erstellung zweier Portfolios verwendet wurde, eines gleichgewichtet und das andere gewichtungsoptimiert. Der Referent wollte analysieren, ob bereits eine einzige Optimierung mit anschließendem Halten des Portfolios über zehn Jahre die Benchmark und den ETF übertreffen würde.

  • 00:50:00 Der Referent bespricht die Ergebnisse seines Projekts zur Portfoliooptimierung mit maschinellem Lernen. Im oberen linken Quadranten der Diagramme werden grüne Blasen angezeigt, die die fünf Aktien mit der höchsten kombinierten Kennzahl darstellen. Der Referent berechnete die gleichgewichteten und optimal gewichteten Portfolios, beide mit einer höheren Durchschnittsrendite und Dividendenrendite als die Benchmark. In den nächsten zehn Jahren erfreuten sich Bank- und Technologieaktien jedoch zunehmender Beliebtheit und das optimierte Portfolio entwickelte sich schlechter als die Benchmark. Der Redner versuchte, seine Leistung zu verbessern, indem er jede Periode neu ausbalancierte und die fünf besten Aktien basierend auf der gewählten Kennzahl auswählte. Die neu gewichteten Portfolios übertreffen die Benchmark und weisen eine höhere Dividendenrendite auf.

  • 00:55:00 Der Referent erörtert, wie Portfoliooptimierung und regelmäßiges Rebalancing eine höhere Dividendenrendite erzielen und Benchmark-Indizes übertreffen können, insbesondere bei Dividendenaktien wie Real Estate Investment Trusts (REITs). Durch die Neuausrichtung der Portfolios alle sechs Monate und die Verwendung unterschiedlicher Rückblickszeiträume konnte der Redner den Index sowohl hinsichtlich der durchschnittlichen Dividendenrendite, des Dividendenwachstums, der Rendite als auch der geringeren Drawdowns übertreffen. Allerdings erwies sich die Beschaffung und Bereinigung der Daten als eine Herausforderung, und die Funktion zur Neuausrichtung war komplex, was mit objektorientierter Programmierung gelöst werden konnte. Insgesamt weist der Redner darauf hin, dass Portfoliooptimierung und regelmäßige Neuausrichtung wertvolle Instrumente für Anleger sein können.

  • 01:00:00 Der Redner stellt fest, dass für eine Outperformance eine häufige Neuausrichtung des Portfolios erforderlich ist, die Seltenheit von Dividendendaten für Dividendenaktien oder -werte es jedoch schwierig macht, häufiger als ein- oder zweimal pro Jahr eine Neuausrichtung vorzunehmen. Der Redner unterstreicht auch die Notwendigkeit weiterer Arbeiten am Projekt, etwa der Untersuchung verschiedener Optimierungskriterien, der Aufnahme weiterer Aktien in das Portfolio für eine stärkere Diversifizierung und eines umfassenderen Backtestings. Sie schlagen außerdem vor, das Universum der Lesevorgänge und Bestände zu erweitern und aufgrund der begrenzten Vorgeschichte und des Überlebensbias eine persönliche Datenbank zu führen. Abschließend beantworten sie Fragen des Publikums zu der begrenzten Marktregion, die im Projekt verwendet wird, und dem verwendeten Verfahren zur Gewichtsoptimierung.

  • 01:05:00 Der Redner diskutiert, wie Ausreißer Modelle des maschinellen Lernens beeinflussen können, insbesondere die lineare Regression und neuronale Netze. Diese Modelle reagieren sehr empfindlich auf Ausreißer. Daher empfiehlt der Referent, Ausreißer mithilfe von Techniken wie Interquartilbereichen, Lasso und Ridge-Regression zu behandeln. Er weist jedoch darauf hin, dass lineare Modelle immer noch die besten Handelsergebnisse liefern, weshalb es wichtig ist, Ausreißer zu behandeln. Der Redner gibt auch Ratschläge dazu, was es braucht, um ein Algo-Händler zu werden, und empfiehlt einen multidisziplinären Ansatz, der das Verständnis der Märkte, der Mikrostruktur, der Programmierkenntnisse und der Konzepte des maschinellen Lernens umfasst.

  • 01:10:00 Der Redner erörtert, wie wichtig es ist, Programmiersprachen wie Python zu erlernen und zu verstehen, um sein Anlageportfolio effektiv zu diversifizieren und zu verwalten. Sie heben die Vorteile eines umfassenden Kurses zum Algo-Handel hervor, der Marktfunktionen, Codierung und Risikomanagement abdeckt, selbst für diejenigen, die nicht beabsichtigen, sich am Hochfrequenzhandel zu beteiligen. Die Intensität und der Umfang des Kurses bieten für jeden etwas und bieten eine gute Grundlage für den persönlichen Einsatz im Finanzleben. Die Redner schließen mit einer Diskussion ihrer Zukunftspläne und der Notwendigkeit, sich in den kommenden Sitzungen weiter mit Themen im Zusammenhang mit dem Algo-Handel zu befassen.
Portfolio Assets Allocation with ML and Optimization for Dividend Stocks | Algo Trading Project
Portfolio Assets Allocation with ML and Optimization for Dividend Stocks | Algo Trading Project
  • 2022.12.13
  • www.youtube.com
EPAT project presentations on “Portfolio Asset Allocation with Machine Learning: A Practical and Scalable Framework for Machine Learning Development” by two ...
Grund der Beschwerde: