Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Hochfrequenzhandelsstrategien
Hochfrequenzhandelsstrategien
Vielen Dank, dass Sie mich heute eingeladen haben, meinen Artikel über Hochfrequenzhandelsstrategien vorzustellen. Mein Name ist Amy Kwan und ich komme von der University of Sydney. Dieses Papier wurde gemeinsam mit Michael Goldstein vom Babson College und Richard Phillip, ebenfalls von der University of Sydney, verfasst.
Der Zweck dieses Papiers besteht darin, einen Beitrag zur laufenden Debatte zwischen Regulierungsbehörden, Marktteilnehmern und Wissenschaftlern über die Auswirkungen des Hochfrequenzhandels (HFT) auf die Finanzmärkte zu leisten. Wir haben unterschiedliche Standpunkte zu diesem Thema gehört, einschließlich der Präsentation von Sean und der Diskussion gestern Abend.
Während es unterschiedliche Meinungen zu HFT gibt, argumentieren einige Leute, wie Michael Lewis, der Autor des Buches „Flash Boys“, dass der US-Aktienmarkt zu einem auf Geschwindigkeit basierenden Klassensystem geworden ist, in dem die wenigen Privilegierten für Nanosekunden Vorteil bezahlen andere sind sich des Werts dieser winzigen Zeitintervalle nicht bewusst. Andererseits behaupten Befürworter von HFT wie Ray Katsuyama, dass HFTs Handelssignale auffangen und Stamminvestoren ausnutzen können.
Frühe wissenschaftliche Erkenntnisse unterstützten im Allgemeinen HFT und den algorithmischen Handel, da davon ausgegangen wurde, dass sie die Liquidität erhöhen und traditionelle Marktqualitätskennzahlen wie geringere Spreads, zunehmende Tiefe und geringere kurzfristige Volatilität verbessern. Neuere Studien haben jedoch einige negative Aspekte von HFT festgestellt. HFTs können beispielsweise den Auftragsfluss anderer Investoren antizipieren und aus den Marktkräften Gewinne ziehen.
Darüber hinaus deuten aktuelle Studien wie die von Banker, Blending and Courageous und Canorkey darauf hin, dass HFTs zunächst gegen den Wind handeln, dann aber mit dem Wind handeln, wenn ein großer Handel voranschreitet. Um dies zu veranschaulichen, betrachten wir ein Szenario, in dem ein großer Pensionsfonds Apple-Aktien kaufen möchte. Sobald HFTs diesen Handel erkennen, können sie mit dem Institut konkurrieren, um in die gleiche Richtung zu handeln, da sie aufgrund des Kaufdrucks einen zukünftigen Preisanstieg antizipieren.
Obwohl es ein gewisses Verständnis für die Auswirkungen von HFT gibt, bleibt die Literatur unklar darüber, wie HFT tatsächlich gehandelt wird und die Finanzmärkte beeinflusst. Die meisten vorhandenen Beweise basieren auf Handelsabwicklungen, und über das Verhalten bei der Auftragserteilung in Australien ist wenig bekannt.
Um diese Lücke zu schließen, untersucht unsere Studie direkt HFT-Handelsstrategien durch Analyse der vollständigen Limit-Orderbuchdaten. Wir haben Zugriff auf detaillierte Informationen zu Auftragseinreichungen, -änderungen, -stornierungen und -geschäften für die 100 größten Aktien der ASX. Durch die Klassifizierung von Händlern in HFT-Firmen, institutionelle Händler und Einzelhandelsmakler wollen wir ihr Verhalten und die Auswirkungen auf die Marktdynamik verstehen.
Unsere wichtigsten Ergebnisse zeigen, dass HFTs hervorragend darin sind, das Auftragsbuch zu überwachen und bei Ungleichgewichten zu handeln. Wenn eine höhere Nachfrage nach dem Kauf oder Verkauf einer Aktie besteht, können HFTs diese Informationen erfolgreicher nutzen als andere Händlerkategorien. Darüber hinaus stellen wir fest, dass HFTs Liquidität auf der festen Seite des Orderbuchs bereitstellen, auch wenn diese nicht benötigt wird, während Nicht-HFTs aufgrund des strategischen Handelsverhaltens von HFTs unter einem eingeschränkten Zugang zum Orderbuch leiden.
Wir untersuchen auch die Einführung eines schnelleren Datenfeeds namens „it“ und stellen fest, dass HFTs nach seiner Implementierung in ihrem strategischen Handel noch effektiver werden. Nicht-HFT-Aufträge werden jedoch aus dem Limit-Auftragsbuch verdrängt, was für diese Händler zu geringeren Chancen auf eine erfolgreiche Ausführung führt.
Zusammenfassend trägt unsere Studie zum Verständnis von HFT-Handelsstrategien bei, indem sie die vollständigen Daten des Limit-Orderbuchs analysiert. Wir stellen fest, dass HFTs andere Händlerkategorien bei der Überwachung des Auftragsbuchs und dem Handel bei Ungleichgewichten übertreffen. Die Einführung eines schnelleren Datenfeeds erhöht ihren Handelsvorteil weiter. Diese Ergebnisse geben Aufschluss darüber, wie HFTs die Marktdynamik beeinflussen, und liefern wertvolle Erkenntnisse für Regulierungsbehörden, Marktteilnehmer und Wissenschaftler.
Nochmals vielen Dank für die Gelegenheit, unsere Forschung vorzustellen.
Ciamac Moallemi: Hochfrequenzhandel und Marktmikrostruktur
Ciamac Moallemi: Hochfrequenzhandel und Marktmikrostruktur
Ein Ziel meiner Präsentation ist es, die Menschen mit der von Fakultätsmitgliedern durchgeführten Forschung vertraut zu machen. Bevor ich mich mit dem Hauptthema befasse, möchte ich einige Hintergrundinformationen zu meiner eigenen Arbeit als angewandter Mathematiker geben. Ungefähr die Hälfte meiner Zeit widme ich der Erforschung stochastischer Kontrollprobleme, bei denen es darum geht, Entscheidungen über einen längeren Zeitraum hinweg in Gegenwart von Unsicherheit zu treffen. Diese abstrakten mathematischen Probleme stellen erhebliche Herausforderungen dar, sind jedoch von grundlegender Bedeutung, da viele technische und geschäftliche Probleme ähnliche Merkmale aufweisen. Die andere Hälfte meiner Forschung konzentriert sich auf den eher angewandten Aspekt stochastischer Kontrollprobleme im Bereich Financial Engineering.
Aufgrund meiner früheren Erfahrung als Hedgefonds-Manager habe ich ein besonderes Interesse an optimalem Handel, Marktmikrostruktur und Hochfrequenzhandel auf den Finanzmärkten. Heute werde ich diese Themen diskutieren, um Einblicke in die Komplexität moderner elektronischer Märkte zu geben. Um die anstehenden Probleme einzuschätzen, ist es wichtig, die Hauptmerkmale der US-Aktienmärkte zu verstehen, die sich in den letzten fünf bis zehn Jahren erheblich weiterentwickelt haben.
In erster Linie dominiert der elektronische Handel den Markt, wodurch das traditionelle Bild der Händler auf dem Parkett der New Yorker Börse weitgehend irrelevant wird. Heutzutage findet der Handel hauptsächlich auf Computern statt, wobei der elektronische Handel der wichtigste Mechanismus für den Austausch ist. Eine weitere bemerkenswerte Veränderung ist die Dezentralisierung bzw. Fragmentierung des Handels. In der Vergangenheit wurde eine bestimmte Aktie vorwiegend an der Nasdaq oder der New Yorker Börse gehandelt. Mittlerweile gibt es jedoch mehrere Börsen, auf die jeweils ein erheblicher Prozentsatz des Aktienhandels entfällt.
Diese Börsen sind als elektronische Limit-Orderbücher organisiert, in denen Marktteilnehmer Kauf- und Verkaufsaufträge mit festgelegten Preisen aufgeben können. Wenn sich die Preise überschneiden, werden Geschäfte ausgeführt. Dies steht im Gegensatz zur historischen Händlermarkt- oder Spezialmarktstruktur der New Yorker Börse. Darüber hinaus finden rund 30 % des Handels an alternativen Handelsplätzen wie elektronischen Crossing-Netzwerken, Dark Pools und Internalisierung statt, was einen weiteren Beitrag zur Dezentralisierung des Handels leistet.
Eines der auffälligsten Merkmale moderner Märkte ist die zunehmende Automatisierung der Teilnehmer. Früher wickelte ein menschlicher Händler große Aufträge ab, doch mittlerweile haben Algorithmen und Hochfrequenzhandel die Oberhand gewonnen. Der algorithmische Handel ermöglicht es Anlegern, große Aufträge im Laufe der Zeit und über Börsen hinweg aufzuteilen, während Hochfrequenzhändler, die oft als Market Maker kategorisiert werden, für Liquidität sorgen. Diese jüngsten Trends haben den Markt komplexer gemacht und zu unvorhersehbaren Interaktionen zwischen algorithmischen Händlern und Hochfrequenzhändlern geführt.
Diese Entwicklungen haben sowohl auf politischer Ebene als auch für einzelne Teilnehmer wichtige Fragen aufgeworfen. Politische Entscheidungsträger und Regulierungsbehörden müssen die Vor- und Nachteile der derzeit komplexen Marktstruktur abwägen. Sie müssen sich auch mit Problemen wie dem Auftreten von Ereignissen wie dem berühmten Flash-Crash vom 6. Mai 2010 befassen, bei dem die Marktpreise aufgrund einer pathologischen Interaktion zwischen einem algorithmischen Händler und Hochfrequenzhändlern innerhalb weniger Minuten erheblich fielen.
Auf der Ebene der einzelnen Teilnehmer müssen Entscheidungsprobleme angegangen werden. Angesichts der Komplexität und Unvorhersehbarkeit des Marktes müssen die Teilnehmer den effektivsten Ansatz für ihre Handelsstrategien ermitteln. In diesem Zusammenhang habe ich Untersuchungen zu zwei spezifischen Problemen im Zusammenhang mit dem Hochfrequenzhandel und der Marktmikrostruktur durchgeführt: das Verständnis der Bedeutung der Latenz und die Untersuchung der Rolle von Dark Pools in Märkten.
Unter Latenz versteht man die Verzögerung zwischen der Entscheidungsfindung und der Ausführung einer Handelsentscheidung. Die Fähigkeit, schnell und mit geringer Latenz zu handeln, wird immer wichtiger. Um den Wert und die mit der Latenz verbundenen Kosten einzuschätzen, muss ihre Bedeutung für Handelsentscheidungen bewertet werden. Im Laufe der Jahre hat sich die Latenzzeit an den US-Aktienmärkten dramatisch verringert, sodass der Handel nun in Mikrosekunden erfolgt. Dieser technologische Fortschritt wurde durch die Nachfrage von Hochfrequenzhändlern und anderen, die eine schnellere Ausführung anstreben, vorangetrieben.
Das Verständnis der Bedeutung der Latenz wirft weitere Fragen auf. Ist eine geringe Latenz von Vorteil, um Entscheidungen mit den neuesten Informationen zu treffen? Bietet es einen Vorteil, schneller als die Konkurrenz zu sein, um Gewinne zu erzielen? Darüber hinaus priorisieren die Regeln und die Organisation von Börsen oft einen frühen Einstieg, was Vorteile für Händler mit Verbindungen mit geringerer Latenz schafft. Dies wirft Bedenken hinsichtlich der Gerechtigkeit und des gleichberechtigten Zugangs zu Marktchancen auf.
Um diese Fragen zu beantworten, umfasst meine Forschung die Entwicklung mathematischer Modelle, die die Dynamik des Hochfrequenzhandels und die Auswirkungen der Latenz auf Handelsstrategien erfassen. Durch die Simulation verschiedener Szenarien und die Analyse der Ergebnisse möchte ich Einblicke in die optimale Balance zwischen Geschwindigkeit und Genauigkeit bei Handelsentscheidungen geben. Diese Forschung kann Marktteilnehmern wie Hedgefonds oder institutionellen Anlegern dabei helfen, ihre Handelsalgorithmen und Infrastruktur so zu gestalten, dass sie ihre Leistung in einem hart umkämpften Umfeld maximieren.
Ein weiterer Bereich meiner Forschung konzentriert sich auf die Rolle von Dark Pools in modernen Märkten. Dark Pools sind private Handelsplätze, die es den Teilnehmern ermöglichen, große Geschäfte anonym und abseits des öffentlichen Marktes durchzuführen. Diese alternativen Handelsplätze erfreuen sich aufgrund ihres Potenzials, die Auswirkungen auf den Markt zu minimieren und die Ausführungsqualität für institutionelle Anleger mit erheblichem Handelsvolumen zu verbessern, zunehmender Beliebtheit.
Allerdings hat die Zunahme von Dark Pools Bedenken hinsichtlich der Markttransparenz und -gerechtigkeit geweckt. Kritiker argumentieren, dass die mangelnde Transparenz an diesen Handelsplätzen zu Informationsasymmetrien führen und sich negativ auf die Preisfindung auswirken kann. Darüber hinaus gab es Fälle, in denen Hochfrequenzhändler die mangelnde Vorhandelstransparenz in Dark Pools zu ihrem eigenen Vorteil ausnutzten.
In meiner Forschung untersuche ich die Auswirkungen von Dark Pools auf die Marktliquidität, die Preisbildung und das Verhalten der Marktteilnehmer. Durch die Entwicklung mathematischer Modelle und die Durchführung empirischer Analysen möchte ich die Vor- und Nachteile des Dark-Pool-Handels verstehen. Diese Forschung kann zur laufenden Debatte über die Regulierung und Aufsicht von Dark Pools beitragen und Marktteilnehmern helfen, fundierte Entscheidungen über ihre Handelsstrategien zu treffen.
Abschließend bietet meine heutige Präsentation einen Überblick über meine Forschung im Bereich Financial Engineering, wobei ich mich insbesondere auf Hochfrequenzhandel, Marktmikrostruktur, Latenz und Dark Pools konzentriere. Indem ich mich mit diesen Themen befasse, möchte ich die Komplexität moderner elektronischer Märkte und die Herausforderungen, die sie für Marktteilnehmer und Regulierungsbehörden mit sich bringen, beleuchten. Durch mathematische Modellierung, Simulationen und empirische Analysen möchte meine Forschung wertvolle Erkenntnisse liefern und zu den laufenden Diskussionen und Entwicklungen im Bereich der Finanzmärkte beitragen.
Darüber hinaus dreht sich ein weiterer Aspekt meiner Forschung um die Auswirkungen regulatorischer Maßnahmen auf die Finanzmärkte. Regulierungsbehörden spielen eine entscheidende Rolle bei der Gewährleistung der Marktintegrität, -stabilität und des Anlegerschutzes. Die Gestaltung und Umsetzung von Vorschriften kann jedoch unbeabsichtigte Folgen haben und die Marktdynamik beeinflussen.
Ein Schwerpunkt meiner Forschung ist die Untersuchung von Marktreaktionen auf regulatorische Ankündigungen. Durch die Analyse historischer Daten und die Durchführung von Ereignisstudien untersuche ich, wie Marktteilnehmer wie Händler und Investoren ihre Strategien und Positionen als Reaktion auf regulatorische Änderungen anpassen. Diese Forschung hilft beim Verständnis der unmittelbaren und langfristigen Auswirkungen von Vorschriften auf Marktliquidität, Volatilität und Gesamteffizienz.
Darüber hinaus untersuche ich die Wirksamkeit verschiedener Regulierungsmaßnahmen bei der Erreichung ihrer beabsichtigten Ziele. Ich untersuche zum Beispiel die Auswirkungen von Leistungsschaltern auf die Marktstabilität, bei denen es sich um Mechanismen handelt, die dazu dienen, den Handel bei extremen Marktbewegungen vorübergehend zu unterbrechen. Durch die Analyse historischer Marktdaten und die Durchführung von Simulationen beurteile ich, ob Leistungsschalter Marktabstürze wirksam verhindern oder verschlimmern.
Ein weiteres Interessengebiet ist die Untersuchung von Regulierungen zur Reduzierung systemischer Risiken auf Finanzmärkten. Dabei werden die Auswirkungen von Maßnahmen wie Kapitalanforderungen, Stresstests und Beschränkungen des Eigenhandels der Banken analysiert. Durch die Untersuchung der Auswirkungen dieser Vorschriften auf die Stabilität des Finanzsystems möchte ich Einblicke in ihre Wirksamkeit und mögliche unbeabsichtigte Folgen geben.
Darüber hinaus untersuche ich auch die Schnittstelle zwischen Technologie und Regulierung, insbesondere im Kontext neuer Technologien wie Blockchain und Kryptowährungen. Diese Technologien stellen die Regulierungsbehörden vor einzigartige Herausforderungen und Chancen, da sie traditionelle Finanzsysteme stören und neue Risiken mit sich bringen können. Meine Forschung in diesem Bereich konzentriert sich auf das Verständnis der regulatorischen Auswirkungen dieser Technologien und die Erforschung potenzieller Rahmenbedingungen, die Innovationen fördern und gleichzeitig Marktintegrität und Anlegerschutz gewährleisten können.
Meine Forschung im Bereich Financial Engineering umfasst ein breites Themenspektrum, darunter die Auswirkungen regulatorischer Richtlinien, Marktreaktionen auf regulatorische Änderungen und die Schnittstelle zwischen Technologie und Regulierung. Durch gründliche Analysen, mathematische Modellierung und empirische Studien möchte ich wertvolle Einblicke in die Funktionsweise der Finanzmärkte liefern und zur Entwicklung wirksamer und fundierter Regulierungsrahmen beitragen.
Kent Daniel: Preisdynamik
Kent Daniel: Preisdynamik
Ich freue mich, hier zu sein und möchte allen für ihr Kommen danken. Es ist toll zu sehen, dass alle so begeistert von diesem Thema sind. Heute werde ich eine spezifische quantitative Strategie besprechen, die häufig von Hedgefonds verwendet wird. Diese Strategie wird häufig mit erheblichem Einfluss umgesetzt und ergänzt die Themen, mit denen sich Professor Sunnah Reyes und Professor Wong befasst haben. Mein Ziel ist es, das Konzept des quantitativen Investierens vorzustellen und Einblicke in diese spezielle Strategie zu geben.
Darüber hinaus forsche ich zum Verständnis der Faktoren, die hinter der Preisdynamik stehen, und zum Auftreten dieses Phänomens auf Märkten. Ich behaupte, dass der Markt nicht ganz effizient ist, was vor allem auf die mangelhafte Informationsverarbeitung durch die Anleger zurückzuführen ist. Daher werde ich mich mit der Charakterisierung von Impulsen befassen und einige Gedanken zu den zugrunde liegenden Ursachen darlegen.
Kürzlich stieß ich im Bloomberg-Magazin auf einen Artikel über Cliff Asness, eine bemerkenswerte Persönlichkeit der Branche. Sein Unternehmen stand in der Vergangenheit vor allem aufgrund der Dynamik vor Herausforderungen. Ich finde, dass dies für unsere heutige Diskussion besonders relevant ist. Tatsächlich haben Asness und sein Unternehmen die Dynamik nicht aufgegeben. Zusätzlich zu ihren Hedgefonds-Bemühungen haben sie sogar einen Investmentfonds namens AQR Momentum Fund aufgelegt.
AQR verwendet sowohl bei seinen Investmentfonds als auch bei seinen Hedgefonds mathematische Regeln, um diversifizierte Portfolios mit einer bestimmten Ausrichtung aufzubauen. Bei Momentum konzentrieren sie sich darauf, in Gewinner zu investieren und Verlierer zu verkaufen. Heute werde ich diese Strategie genauer untersuchen. Bevor ich jedoch auf die Einzelheiten eingehe, möchte ich einige Erkenntnisse aus einer Forschungsarbeit von Asness, Moskowitz und Patterson teilen. Das Papier untersucht das Vorhandensein von Dynamik in verschiedenen Anlageklassen.
Ihren Erkenntnissen zufolge hat sich Momentum in verschiedenen Regionen, darunter den Vereinigten Staaten, dem Vereinigten Königreich und Kontinentaleuropa, in der Vergangenheit gut entwickelt. In Japan wurden jedoch nicht die gleichen positiven Ergebnisse erzielt. Darüber hinaus untersucht die Studie die Dynamik bei der Länderauswahl von Aktien, Anleihen, Fremdwährungen und Rohstoffen, wobei in jedem Bereich ein unterschiedlicher Erfolg erzielt wird.
Was also treibt die Dynamik an? Basierend auf meinen Vorarbeiten und Theorien dreht sich die überzeugendste Erklärung um die Informationsverarbeitung durch Anleger. Wenn Anleger neue Informationen erhalten, neigen sie dazu, einen Status-Quo-Bias an den Tag zu legen und davon auszugehen, dass die Dinge relativ unverändert bleiben. Obwohl sie als Reaktion auf die Informationen mit einer gewissen Preisbewegung rechnen, verstehen sie deren Auswirkungen nicht vollständig. Folglich schwankt der Preis leicht, aber es dauert Zeit, oft etwa ein Jahr, bis sich die Informationen vollständig in den Preisen widerspiegeln.
Wenn Sie im Kontext der Finanzmärkte eine mit Informationen verknüpfte Preisbewegung beobachten, ist es wahrscheinlich, dass die Dynamik anhält. Diese Beständigkeit der Preisbewegung steht im Einklang mit dem Konzept des Impulses in der Physik, bei dem ein Objekt, das sich mit einer bestimmten Geschwindigkeit in eine bestimmte Richtung bewegt, dazu neigt, sich weiter zu bewegen, sofern keine äußere Kraft auf es einwirkt.
Lassen Sie uns nun untersuchen, wie man eine Momentum-Strategie erstellt. Angenommen, Sie möchten eine einfache Momentum-Strategie implementieren, die dem Ansatz von AQR ähnelt. Hier ist eine Schritt-für-Schritt-Anleitung: Berechnen Sie beginnend zu Beginn eines bestimmten Monats die monatlichen Renditen aller an der NYSE, Amex und NASDAQ notierten Aktien in den letzten 12 Monaten bis vor einem Monat. Ordnen Sie die Aktien anhand ihrer Renditen und identifizieren Sie die oberen 10 % als Gewinner und die unteren 10 % als Verlierer. Erstellen Sie ein Portfolio mit den Gewinnern, gewichtet nach ihrer Marktkapitalisierung. Erstellen Sie in ähnlicher Weise ein Long-Short-Portfolio, indem Sie die Verliereraktien im Wert von 1 USD leerverkaufen. Gleichen Sie das Portfolio zu Beginn jedes Monats neu aus, indem Sie die Renditen und Rankings des Gründungszeitraums aktualisieren.
Diese Strategie führt zu einem Portfolio mit relativ geringem Umschlag, da die jüngsten Renditen wahrscheinlich ähnlich sind. Wenn Sie den Zeitraum jedoch auf 12 Monate verlängern, beginnen die Renditen erheblich zu divergieren.
Lassen Sie uns nun die Leistung dieser Strategie von 1949 bis 2007 bewerten. Eine Investition in Schatzwechsel bringt eine durchschnittliche Überrendite von 16,5 % pro Jahr, was ziemlich beachtlich ist. Dies deutet darauf hin, dass sich die Momentum-Strategie, Gewinner zu kaufen und Verlierer zu verkaufen, langfristig als äußerst profitabel erwiesen hat.
Nun fragen Sie sich vielleicht, ob diese Überrendite über verschiedene Zeiträume hinweg konsistent ist. Um dies zu untersuchen, unterteilen wir die Daten in verschiedene Jahrzehnte und sehen uns an, wie sich die Dynamik verhält. Hier sind die Überrenditen für jedes Jahrzehnt:
Wie Sie sehen, hat das Momentum in jedem Jahrzehnt zu positiven Überrenditen geführt, wenn auch in unterschiedlichem Ausmaß. Erwähnenswert ist, dass die Überrendite in den 1990er-Jahren im Vergleich zu anderen Jahrzehnten vergleichsweise geringer ausfiel, aber dennoch positiv war.
Warum bleibt Momentum weiterhin eine profitable Strategie? Eine Erklärung dafür ist, dass Anleger dazu neigen, auf neue Informationen zu wenig zu reagieren, was zu einer langsamen Preisanpassung führt. Infolgedessen schneiden Aktien mit positiven Renditen weiterhin besser ab, da ihre Preise nicht alle verfügbaren Informationen vollständig widerspiegeln. Diese verzögerte Anpassung bietet Anlegern die Möglichkeit, Gewinne zu erzielen, indem sie die Dynamik nutzen.
Es ist wichtig zu erwähnen, dass Momentum zwar eine konstante Rentabilität gezeigt hat, dies jedoch nicht bedeutet, dass es risikofrei ist. Wie jede Anlagestrategie bringt sie ihre eigenen Risiken und Herausforderungen mit sich. Die Marktbedingungen können sich ändern und die Wertentwicklung in der Vergangenheit ist keine Garantie für zukünftige Ergebnisse. Daher sind eine gründliche Analyse, ein Risikomanagement und eine laufende Überwachung von entscheidender Bedeutung bei der Umsetzung eines auf Momentum basierenden Anlageansatzes.
Zusammenfassend lässt sich sagen, dass die Momentum-Strategie, die den Kauf von Gewinnern und den Verkauf von Verlierern umfasst, in der Vergangenheit zu erheblichen Überrenditen an den Finanzmärkten geführt hat. Trotz unterschiedlicher Renditen in den verschiedenen Jahrzehnten ist Momentum insgesamt eine profitable Strategie geblieben. Allerdings sollten Anleger Vorsicht walten lassen und verschiedene Faktoren berücksichtigen, bevor sie diese Strategie in ihren Anlageansatz integrieren.
Algorithmischer Handel und maschinelles Lernen
Algorithmischer Handel und maschinelles Lernen
Okay, danke, Costas, dass du mich hast. Ich möchte auch Eric meinen Dank für seinen aufschlussreichen Vortrag aussprechen, der einen wertvollen Kontext für die Diskussion liefert, die ich präsentieren werde. Heute werde ich mich auf die Erfahrungen konzentrieren, die ich auf der anderen Seite dieser Börsen und im Umgang mit Hochfrequenzhändlern (HFTs) und anderen Gegenparteien gemacht habe. Ich möchte klarstellen, dass sich mein Vortrag nicht explizit mit der Spieltheorie befassen wird, da Costas mir versichert hat, dass sie akzeptabel sei. Ich werde mich jedoch mit praktischen Aspekten befassen und dabei auf meine Erfahrungen aus der Arbeit mit einer quantitativen Handelsgruppe an der Wall Street in den letzten 12 Jahren zurückgreifen.
Zuallererst möchte ich meinem Handelspartner By Vaca meinen besonderen Dank aussprechen, der Mitautor aller von mir besprochenen Arbeiten ist. Unsere Forschung und Erkenntnisse sind aus proprietären kommerziellen Kontexten innerhalb unserer Handelsgruppe hervorgegangen. Die Aspekte, die ich hervorheben werde, sind die nicht-proprietären Elemente, die wir im Laufe der Zeit wissenschaftlich interessant finden.
Die Wall Street ist zweifellos ein faszinierender Ort, sowohl technologisch als auch sozial. Aufgrund der Automatisierung und der Fülle an Daten kam es zu erheblichen Veränderungen. Diese Veränderungen haben zu zahlreichen Handelsherausforderungen geführt, die einen lernbasierten Ansatz, insbesondere maschinelles Lernen, erfordern. Da riesige Datenmengen in einem zeitlichen und räumlichen Maßstab verfügbar sind, der das menschliche Verständnis übersteigt, sind Algorithmen im Handel unverzichtbar geworden. Diese Algorithmen müssen anpassungsfähig sein und anhand historischer Daten, einschließlich aktueller Daten, trainiert werden, um sinnvolle Handelsentscheidungen treffen zu können.
In meinem Vortrag werde ich drei spezifische Problembereiche skizzieren, die beim algorithmischen Handel in modernen elektronischen Märkten auftreten. Diese Vignetten oder Fallstudien beleuchten die algorithmischen Herausforderungen und bieten Hinweise, wie diese mit neuen Techniken bewältigt werden können.
Die ersten beiden Probleme drehen sich um eine optimierte Ausführung. Bei der Ausführung eines Handels, unabhängig davon, ob ein bestimmtes Aktienvolumen gekauft oder verkauft wird, gibt es einen Kompromiss zwischen Unmittelbarkeit und Preis. Man kann sich dafür entscheiden, den Handel schnell auszuführen, was sich auf die Preise auswirkt, aber möglicherweise von flüchtigen Informationsvorteilen profitiert. Andererseits kann ein gemächlicherer Ansatz gewählt werden, der es dem Markt ermöglicht, sich über einen längeren Zeitraum dem gewünschten Preis anzunähern. Ich werde mich mit diesen Kompromissen befassen und konkrete Beispiele vorstellen, die die Herausforderungen veranschaulichen, mit denen elektronische Märkte konfrontiert sind.
Das dritte Problem betrifft algorithmische Versionen der klassischen Portfoliooptimierung, beispielsweise die Mittelwert-Varianz-Optimierung. Dabei geht es darum, ein diversifiziertes Portfolio zu halten, das die Rendite maximiert und gleichzeitig Risiken oder Volatilität berücksichtigt. Obwohl dieses Problem algorithmischer Natur ist, hängt es mit traditionellen Ansätzen zur Portfoliooptimierung zusammen.
Es ist erwähnenswert, dass die fortlaufende Double-Limit-Order-Auktion, wie von Eric zuvor beschrieben, als Hintergrund für diese Herausforderungen dient. Das Bild des Flash-Crashs und das Buch von Michael Lewis zum Hochfrequenzhandel unterstreichen die interessanten und dynamischen Zeiten, die wir derzeit an der Wall Street erleben. Ich beabsichtige zwar nicht, ein moralisches Urteil über Handelsaktivitäten, einschließlich des Hochfrequenzhandels, abzugeben, mein Ziel ist es jedoch, die algorithmischen Herausforderungen, mit denen moderne elektronische Märkte konfrontiert sind, aus der Perspektive einer quantitativen Handelsgruppe zu erläutern, die innerhalb eines traditionellen statistischen Aktienhandelsrahmens operiert.
Unsere Handelsgruppe ist auf den Handel mit Long- und Short-Aktien spezialisiert und umfasst eine breite Palette liquider Instrumente auf nationalen und internationalen Märkten. Zur Absicherung unserer Positionen setzen wir ausschließlich Futures ein und verzichten auf komplexe Derivate. Trotz des Handels auf relativ einfachen Märkten und Instrumenten haben die zunehmende Automatisierung und die Verfügbarkeit von Daten an der Wall Street zu einer Vielzahl von Handelsproblemen geführt, die einen Lernansatz erfordern, der häufig auf maschinellem Lernen beruht.
Ein Beispiel hierfür ist übrigens die häufige Beobachtung, dass, wenn ein Analyst seine Einschätzung einer Aktie ändert, andere Analysten dazu neigen, ihre Einschätzung derselben Aktie schnell hintereinander zu verbessern. Man muss also feststellen, ob es sich tatsächlich um neue Nachrichten handelt oder einfach nur um das Ergebnis anderer grundlegender Nachrichten, die auf den Markt kommen. In solchen Fällen ist es möglicherweise nicht ratsam, auf der Grundlage dieser Informationen zu handeln.
Nun zu Ihrer Frage, warum wir am Ende keine Zeit für Fragen lassen und stattdessen das Restvolumen kaufen wollen, darauf gibt es zwei Antworten. Erstens: Wenn wir ein Maklerunternehmen wie die Bank of America mit einem algorithmischen Handelsschalter sind, führen wir Geschäfte auf der Grundlage der Anweisungen des Kunden aus. Sie geben uns Anweisungen, wie viele Aktien wir innerhalb eines bestimmten Zeitraums kaufen sollen. Wir bitten während des Vorgangs nicht um eine Bestätigung. Zweitens haben wir unsere Strategien optimiert, um anhand der verfügbaren Informationen das richtige Kaufvolumen zu ermitteln. Dieses Volumen ist normalerweise das Maximum, das wir handeln können, ohne den Aktienkurs wesentlich zu beeinflussen. Obwohl es möglich ist, den von Ihnen vorgeschlagenen Ansatz umzusetzen, ziehen wir es vor, die Anzahl der beteiligten Parameter zu minimieren, um die Entscheidungsfindung in der komplexen Welt des Handels zu vereinfachen.
Was den Testprozess betrifft, führen wir in den sechs Monaten nach der Studie Live-Tests durch. Dadurch können wir die Leistung des Modells unter realen Marktbedingungen bewerten. Das Modell selbst nutzt jedoch während der Testphase historische Daten.
Wenn es darum geht, den Menschen unsere Politik zu erklären, verlassen wir uns in erster Linie auf einen empirischen Ansatz und nicht auf Augenmaß. Bei diesem speziellen Problem ist klar, was vernünftiges Verhalten ausmacht. Die Herausforderung entsteht, wenn man mit Strategien umgeht, die gut funktionieren, ohne klar zu verstehen, warum sie funktionieren. In solchen Fällen gehen wir das Problem manchmal aus einer anthropologischen Perspektive an und versuchen, die Gründe für die gleichbleibende Rentabilität bestimmter Branchen zu verstehen.
Wir sind uns bewusst, dass die Komplexität dessen, was wir lernen, Herausforderungen in Bezug auf die Interpretation mit sich bringt. Während wir in bestimmten Zustandsvariablen eine konsistente Vorhersagekraft erkennen können, ist es äußerst schwierig, die zugrunde liegenden Gründe auf granularer Ebene zu verstehen. Die mikrostrukturelle Natur der Finanzmärkte, insbesondere im Hochfrequenzhandel, bringt Volumina und Datengeschwindigkeiten mit sich, die das normale menschliche Verständnis übersteigen. Daher konzentrieren wir uns auf sorgfältige Schulungs- und Testmethoden, um eine gleichbleibende Leistung sicherzustellen.
In unseren Experimenten haben wir verschiedene Merkmale des Auftragsbuchs und deren Auswirkungen auf die Leistung untersucht. Beispielsweise hat sich die Einbeziehung der Geld-Brief-Spanne in den Zustandsraum als wertvoll für die Optimierung der Handelsausführung erwiesen. Allerdings bieten nicht alle Funktionen den gleichen Nutzen und einige Variablen können aufgrund einer Überanpassung sogar negative Auswirkungen auf die Leistung haben. Durch die Auswahl der informativsten Funktionen haben wir zusätzlich zu den 35 Prozent, die durch steuerungstheoretische Ansätze erzielt wurden, eine weitere Verbesserung um 13 Prozent erreicht.
Wir haben eine Lösung experimentell evaluiert, obwohl ich derzeit nicht die Zeit habe, mich mit den Einzelheiten zu befassen. Allerdings kann ich Liquidität anhand eines Cartoon-Modells vereinfacht erklären. Verschiedene Dark Pools, bei denen es sich um alternative Handelsplätze handelt, weisen zu unterschiedlichen Zeiten und für unterschiedliche Aktien unterschiedliche Liquiditätseigenschaften auf.
Wenn eine neue Börse entsteht, sei es ein Limit-Orderbuch oder ein Dark Pool, versucht sie oft, sich auf dem Markt zu etablieren, indem sie Vorzugsbehandlungen, Rabatte oder Gebühren für eine bestimmte Aktienklasse anbietet. Sie bewerben sich als bevorzugter Dark Pool für den Handel mit bestimmten Aktienarten. Dadurch werden an diesen Aktien interessierte Händler von diesem speziellen Dark Pool angezogen, wodurch Liquidität entsteht. Im Gegensatz dazu können andere Dark Pools andere Liquiditätsprofile aufweisen und möglicherweise nicht so viele Handelsaktivitäten anziehen.
Um dieses Konzept zu veranschaulichen, stellen Sie sich vor, dass jeder Dark Pool ein einzigartiges Liquiditätsprofil für eine bestimmte Aktie hat, dargestellt durch eine stationäre Wahrscheinlichkeitsverteilung. Die x-Achse stellt die Anzahl der Aktien dar, während die y-Achse die Wahrscheinlichkeit darstellt, in jedem diskreten Zeitschritt verfügbare Aktien zur Ausführung zu finden. Wenn wir unseren Handelsauftrag an einen Dark Pool übermitteln, werden aus dieser Verteilung eine oder mehrere Zahlen gezogen, die das Volumen der Kontrahenten angeben, die zu diesem bestimmten Zeitpunkt zum Handel bereit sind. Das ausgeführte Volumen wird durch das Minimum des gezogenen Volumens (s) und des angeforderten Volumens (vns) bestimmt, wobei bei Bedarf eine teilweise Ausführung gewährleistet ist.
Nun fragen Sie sich vielleicht, wie die Liquiditätskurve bei einer teilweisen Ausführung nicht abnehmen kann. Die Liquiditätskurve stellt lediglich die Wahrscheinlichkeit dar, innerhalb einer bestimmten Bandbreite verfügbares Volumen zu finden. Es zeigt, dass kleinere Volumina eher zur Ausführung verfügbar sind, während größere Volumina weniger wahrscheinlich sind. Eine teilweise Ausführung bedeutet lediglich, dass das ausgeführte Volumen geringer ist als das angeforderte Volumen, hat jedoch keinen Einfluss auf die Gesamtform der Liquiditätskurve.
Die Ausbreitung von Dark Pools ist ein interessantes Phänomen. Es wirft Fragen zum Marktgleichgewicht und zum Wettbewerb zwischen diesen Veranstaltungsorten auf. Es bleibt ungewiss, ob sich der Markt letztendlich konsolidieren wird, was zur Dominanz einiger weniger Dark Pools führen wird. Eine ähnliche Dynamik wurde bei fortlaufenden Doppelauktionen beobachtet, seit die Deregulierung der Finanzmärkte den gleichzeitigen Betrieb mehrerer Börsen ermöglichte. Die Regulierungslandschaft und die Fähigkeit von Startups, neue Mechanismen vorzuschlagen, tragen zur Komplexität der Marktstruktur bei.
Wenn wir den Zusammenhang zwischen dieser Forschung und Erics Artikel betrachten, können wir das Zusammenspiel verschiedener Marktstrukturen und Algorithmen und deren Auswirkungen auf die Marktstabilität und -fragmentierung untersuchen. Durch die Simulation von Szenarien, an denen mehrere Spieler ähnliche Algorithmen verwenden, können wir die Rechenergebnisse untersuchen und untersuchen, wie sich Marktstruktur und Algorithmenvielfalt auf Preise und andere regulatorische Belange auswirken. Diese Kombination von Forschungsbemühungen könnte wertvolle Erkenntnisse über die komplexe Beziehung zwischen Marktstruktur, algorithmischem Handel und Marktstabilität liefern.
Darüber hinaus können wir uns mit anspruchsvolleren Fragen befassen, beispielsweise mit der Interaktion zwischen verschiedenen Algorithmen und Marktstrukturen und wie diese die Marktdynamik beeinflussen. Durch die Untersuchung verschiedener Marktszenarien können wir die Eignung verschiedener Marktstrukturen und Algorithmen analysieren, um Stabilität zu erreichen und Fragmentierungsprobleme anzugehen.
Die Entwicklung der Finanzmärkte hat zur Automatisierung bestimmter Aspekte geführt und häufig nützliche menschliche Elemente ersetzt. Allerdings wurden neue elektronische Mechanismen eingeführt, um die Funktionalität zu reproduzieren und zu verbessern. Wenn wir diese Dynamik verstehen und unsere Strategien entsprechend anpassen, können wir uns in der Komplexität moderner Finanzmärkte zurechtfinden.
Mein Vortrag wird die algorithmischen Herausforderungen beleuchten, die mit dem Handel auf modernen elektronischen Finanzmärkten verbunden sind. Die drei Fallstudien, die ich vorstellen werde, verdeutlichen die Komplexität und Kompromisse bei der optimierten Ausführung und der algorithmischen Portfoliooptimierung. Auch wenn es mir aus zeitlichen Gründen möglicherweise nicht möglich ist, alle Themen vollständig abzudecken, hoffe ich, wertvolle Einblicke in diese Bereiche zu geben.
Während Simulationen und rechnerische Analysen Möglichkeiten zum Verständnis der potenziellen Ergebnisse des algorithmischen Handels bieten, ist es wichtig, ein Gleichgewicht zwischen abstrakter Modellierung und Relevanz für die reale Welt zu finden. Die Herausforderung besteht darin, herauszufinden, welche Details entscheidend sind und welche getrost übersehen werden können, ohne dass die praktische Relevanz verloren geht, insbesondere in der komplexen und sich ständig weiterentwickelnden Landschaft der Finanzmärkte.
Das Design von Finanzbörsen: Einige offene Fragen an der Schnittstelle von Wirtschaft und CS
Das Design von Finanzbörsen: Einige offene Fragen an der Schnittstelle von Wirtschaft und CS
Vielen Dank, Kostas. Dieser Vortrag wird für mich etwas unkonventionell sein, aber ich hoffe, dass er mit dem Geist dieser Konferenz und dem Thema der offenen Richtungen übereinstimmt. Es hängt mit der Gestaltung von Finanzbörsen zusammen, insbesondere mit der vorherrschenden Gestaltung des sogenannten Continuous-Limit-Order-Books. Ich beginne mit der Diskussion eines Papiers, an dem ich kürzlich mit Peter Crampton und John Shimm gearbeitet habe und das einen wirtschaftlichen Fehler im aktuellen Finanzaustauschdesign aufzeigt. Dieser Fehler trägt unserer Meinung nach zu den negativen Aspekten des Hochfrequenzhandels bei.
Der erste Teil des Vortrags befasst sich mit diesem Artikel, der einigen von Ihnen vielleicht bekannt sein dürfte, den meisten jedoch wahrscheinlich nicht. Es stellt ein wirtschaftliches Argument für einen alternativen Ansatz dar, der als zeitdiskreter Handel oder häufige Batch-Auktionen bezeichnet wird. Unser Artikel weist darauf hin, dass das kontinuierliche Limit-Orderbuch zwar weltweit weit verbreitet ist, aber einen strukturellen Fehler aufweist, der zu verschiedenen Problemen im Zusammenhang mit dem Hochfrequenzhandel führt. Ich werde eine komprimierte und leicht zugängliche Version dieses Teils präsentieren, wie er bereits mehrfach präsentiert wurde.
Im zweiten und dritten Teil des Vortrags geht es um offene Fragen und Forschungsrichtungen zur Gestaltung von Finanzbörsen. Diese Forschungsgebiete liegen an der Schnittstelle von Wirtschaftswissenschaften und Informatik. In den späteren Abschnitten werde ich einen zweiseitigen Abschnitt am Ende des Artikels des Quarterly Journal of Economics besprechen, der ein qualitatives Argument ohne Theoreme oder Daten für die rechnerischen Vorteile des zeitdiskreten Handels im Vergleich zum aktuellen Marktdesign präsentiert . Diese Diskussion wirft zahlreiche Fragen auf und soll zu weiteren Untersuchungen anregen.
Obwohl die letzten Teile des Vortrags weniger formell sind als ich es gewohnt bin, glaube ich, dass sie entscheidend sind, um offene Fragen aufzuwerfen und eine Agenda für zukünftige Forschung festzulegen. Dies steht im Einklang mit dem Zweck dieser Konferenz, die die Erforschung der Schnittstellen zwischen Wirtschaftswissenschaften und Informatik fördert und fruchtbare Richtungen für zukünftige Untersuchungen vorschlägt.
Lassen Sie uns nun näher auf die wirtschaftlichen Argumente für den zeitdiskreten Handel und seine Vorteile gegenüber dem kontinuierlichen Limit-Orderbuch eingehen, die ich näher erläutern werde. Das kontinuierliche Limit-Orderbuch ist ein Marktdesign, das täglich wirtschaftliche Aktivitäten in Billionenhöhe abwickelt. Es funktioniert auf der Grundlage von Limitaufträgen, die den Preis, die Menge und die Richtung (Kauf oder Verkauf) eines Wertpapiers festlegen. Marktteilnehmer können im Laufe des Tages Limitaufträge einreichen, stornieren oder ändern, und diese Nachrichten werden an die Börse gesendet.
Der Handel erfolgt, wenn eine neue Anfrage mit vorhandenen Aufträgen im Limit-Auftragsbuch übereinstimmt. Beispielsweise würde eine Kaufanfrage mit einem Preis, der mindestens einem ausstehenden Verkaufsangebot entspricht, zu einem Handel führen. Dies ist die Grundfunktion des kontinuierlichen Limit-Orderbuchs.
Unsere Untersuchungen legen jedoch nahe, dass dieses Marktdesign inhärente Mängel aufweist. Ein großes Problem ist das, was wir „Sniping“ nennen. Wenn sich öffentliche Informationen oder Signale ändern, passen Handelsunternehmen, die Liquidität bereitstellen, ihre Kurse entsprechend an. Sie stornieren ihre vorherigen Gebote oder Anfragen und ersetzen sie durch neue, die die aktualisierten Informationen widerspiegeln. Angenommen, ich gehöre zu diesen Handelsfirmen und passe meine Kurse an. Gleichzeitig senden auch andere, wie Thomas, Nachrichten an die Börse, um zu den alten Kursen zu handeln, bevor diese ersetzt werden.
Da der Markt diese Nachrichten kontinuierlich und in serieller Reihenfolge verarbeitet, wird es zufällig, welche Nachricht zuerst die Börse erreicht. Wenn mehrere Handelsfirmen gleichzeitig auf die neuen Informationen reagieren, besteht die Möglichkeit, dass eine Anfrage von Thomas oder einem anderen Teilnehmer vor meiner bearbeitet wird und sie zum alten Preis handeln können. Dieses Phänomen des Scharfschützenangriffs ist problematisch und hat mehrere Auswirkungen.
Erstens ermöglicht es mechanische Arbitragemöglichkeiten auf der Grundlage symmetrischer öffentlicher Informationen, was in einem effizienten Markt nicht der Fall sein sollte. Zweitens gehen die Gewinne aus solchen Arbitragemöglichkeiten zu Lasten der Liquiditätsbereitstellung. Da Scharfschützen erfolgreich Geschäfte zu alten Preisen ausführen, zögern Handelsfirmen, die Liquidität bereitstellen, ihre Kurse schnell anzupassen. Diese Zurückhaltung rührt von der Angst her, beschossen zu werden und potenzielle Gewinne zu verpassen. Folglich wird der Markt weniger effizient, da Liquiditätsanbieter weniger bereit sind, ihre Angebote als Reaktion auf neue Informationen zu aktualisieren.
Ein weiteres Problem beim fortlaufenden Limit-Orderbuch ist die Möglichkeit der Auftragserwartung. In diesem Szenario beobachten Händler das Eintreffen neuer Limit-Orders und passen ihre Quotes im Vorgriff auf zukünftige Geschäfte präventiv an. Dieses Verhalten kann zu einem Kaskadeneffekt führen, bei dem Händler ihre Kurse als Reaktion aufeinander ständig anpassen, was zu unnötiger Volatilität und Instabilität auf dem Markt führt.
Um diese Mängel zu beheben, schlägt unser Artikel ein alternatives Marktdesign vor, das als zeitdiskreter Handel oder häufige Batch-Auktionen bekannt ist. Bei diesem Design verarbeitet der Markt Aufträge nicht in kontinuierlicher Zeit, sondern in diskreten Zeitintervallen oder Chargen. Während jedes Stapels können Marktteilnehmer ihre Limitaufträge einreichen. Am Ende des Stapels wird der Markt freigegeben und die Geschäfte werden zu einem einzigen einheitlichen Preis ausgeführt.
Durch die Einführung des zeitdiskreten Handels beseitigen wir die Probleme des Sniping und der Auftragserwartung. Da alle innerhalb eines Stapels übermittelten Aufträge gleichzeitig verarbeitet werden, gibt es bei der Auftragsausführung keine Zufälligkeit. Händler können darauf vertrauen, dass ihre Aufträge zum gleichen Preis wie die anderer Teilnehmer innerhalb derselben Charge ausgeführt werden, was für Fairness sorgt und den Anreiz zum Sniping verringert.
Darüber hinaus fördern häufige Batch-Auktionen die Stabilität und reduzieren unnötige Volatilität auf dem Markt. Händler müssen ihre Kurse nicht mehr ständig an jede eingehende Order anpassen. Sie können sich stattdessen auf die Analyse von Informationen und das Treffen fundierter Handelsentscheidungen konzentrieren und wissen, dass ihre Aufträge am Ende des Auftrags zu einem fairen Preis ausgeführt werden.
Investitionen auf den Finanzmärkten erfordern oft eine gewisse Wartezeit, bis Transaktionen stattfinden. Unterschiedliche Personen können unterschiedlicher Meinung darüber sein, ob diese Wartezeit einen erheblichen oder einen unbedeutenden Kostenfaktor darstellt. Wenn Sie beispielsweise bei der Ausführung von Trades etwas schneller sind als ich, beispielsweise eine Millionstelsekunde schneller, könnte Ihnen das einen Vorteil bei der Reaktion auf Nachrichtenereignisse innerhalb dieses Zeitrahmens verschaffen. Andererseits könnte es sein, dass ich aufgrund meiner etwas langsameren Geschwindigkeit die Gelegenheit zum Handeln verpasse. Dieser Geschwindigkeitsvorteil wird häufig anhand des Verhältnisses der Geschwindigkeitsdifferenz (Delta) zum Chargenintervall (Tau) in einem kontinuierlichen Markt gemessen.
Wenn Sie in einem diskreten Markt etwas schneller sind als ich, können Sie mich aufgrund des auktionsbasierten Wettbewerbs immer in einem bestimmten Zeitintervall (Delta über Tau) „ausschalten“. Wenn Sie und mehrere andere Händler jedoch alle etwas schneller sind als ich, müssten wir an einer Auktion teilnehmen, um mit mir zu handeln, anstatt nur auf der Grundlage der Geschwindigkeit zu konkurrieren. Dies wirft die Frage auf, ob verschiedene Märkte diesen synchronisierten Taktansatz einheitlich übernehmen oder ob damit praktische Herausforderungen verbunden sind.
Es ist wichtig zu beachten, dass im aktuellen kontinuierlichen Markt das Gesetz eines Preises ständig verletzt wird, da Preisänderungen nicht gleichzeitig an verschiedenen Börsen stattfinden. Dieser Verstoß ist durch menschliche Beobachtung oder die verfügbaren Forschungsdaten nicht leicht erkennbar. Wenn jedoch mehrere Börsen gleichzeitig häufige Batch-Auktionen durchführen würden, wäre es möglich, Verstöße gegen das Gesetz eines einheitlichen Preises leichter zu erkennen. Das bedeutet nicht unbedingt, dass ein Ansatz besser oder schlechter ist, sondern vielmehr, dass die Daten klarere Erkenntnisse liefern würden.
Wenn eine einzelne Börse zu einem diskreten Markt übergehen würde, während andere kontinuierlich bleiben, würde diese Börse die Latenzarbitrage beseitigen und eine Steuer auf die Bereitstellung von Liquidität abschaffen. In wirtschaftlicher Hinsicht könnte dies dem diskreten Marktaustausch im Laufe der Zeit einen Vorteil verschaffen. Allerdings gibt es bei der Einführung eines neuen Marktplatzes Herausforderungen, regulatorische Unklarheiten und Eigeninteressen bestehender Börsen, die vom aktuellen Marktdesign profitieren.
Der Vorschlag von IEX, Latenz in jede Bestellung einzuführen und gleichzeitig einen kontinuierlichen Austausch aufrechtzuerhalten, funktioniert durch die Verzögerung sowohl eingehender als auch ausgehender Bestellungen um ein bestimmtes Zeitintervall. IEX überwacht Marktveränderungen innerhalb von Sekundenbruchteilen und passt die Preise entsprechend an. Eine potenzielle Schwäche ihres Designs besteht jedoch darin, dass sie auf den Zugriff auf Preisinformationen aus externen Quellen angewiesen ist. Dies wirft die Frage auf, ob der Ansatz von IEX zur Preisfindung beiträgt oder sich lediglich auf Informationen von anderswo stützt.
Andererseits kann die Einführung zufälliger Verzögerungen bei allen Bestellungen Sniping möglicherweise nicht wirksam entgegenwirken und zu einem unendlichen Nachrichtenverkehr führen. Zwar wurden mehrere Ideen zur Lösung des Problems vorgeschlagen, viele davon erwiesen sich jedoch bei der Analyse als unwirksam. Im Gegensatz dazu schlagen wir in unserem Artikel vor, zeitdiskrete Verarbeitung und Stapelverarbeitung als Lösung für den Fehler im Marktdesign zu schaffen, der Gewinne aus öffentlichen Informationen generiert und einen Geschwindigkeitswettlauf fördert.
Ein Aspekt, den wir in der Arbeit diskutieren, sind die rechnerischen Vorteile des zeitdiskreten Handels. Moderne Finanzmärkte sind mit verschiedenen Rechenproblemen konfrontiert, wie zum Beispiel Flash-Crashs und Börsenstörungen. Diskrete Zeit bietet im Vergleich zu kontinuierlicher Zeit eine einfachere Berechnung und bietet spezifische Vorteile für Börsen, algorithmische Händler und Regulierungsbehörden.
Bei Börsen kann die kontinuierliche Verarbeitung zu Rückstandsproblemen führen, da Algorithmen in Zeiten hoher Aktivität unsicher über den Stand der Aufträge und des Marktes sind. Im Gegensatz dazu können zeitdiskrete Batch-Auktionen effizienter abgewickelt werden und bieten ein Zeitpolster im Vergleich zur ungünstigsten Verarbeitungszeit. Dies verringert die Unsicherheit und die Rückstandsprobleme, mit denen Börsen konfrontiert sind.
Diskrete Zeit vereinfacht auch die Nachrichtenverarbeitung für den Austausch und macht die Priorisierung der Verbreitung verschiedener Nachrichtentypen überflüssig. Dies verringert die Möglichkeit, Informationsasymmetrie auszunutzen. Darüber hinaus vereinfacht die diskrete Zeit die Programmierumgebung für den Austausch, wodurch möglicherweise das Auftreten von Störungen reduziert und die Gesamtsystemstabilität verbessert wird.
Ein weiterer rechnerischer Vorteil des zeitdiskreten Handels besteht darin, dass er die Analyse und Modellierung algorithmischer Strategien vereinfacht. Auf zeitkontinuierlichen Märkten stehen algorithmische Händler vor der Herausforderung, ihre Reaktion auf eingehende Daten in Echtzeit zu optimieren. Sie müssen schnell Entscheidungen treffen und dabei die sich ändernden Marktbedingungen berücksichtigen. Dieser Kompromiss zwischen Geschwindigkeit und Intelligenz ist ein komplexes Problem, das es zu lösen gilt.
Beim zeitdiskreten Handel ermöglicht die Stapelverarbeitung von Daten jedoch algorithmischen Händlern, ein festes Intervall für die Analyse und Entscheidungsfindung zur Verfügung zu haben. Wenn das Batch-Intervall beispielsweise auf 100 Millisekunden eingestellt ist, haben Händler den Luxus, die ersten 100 Millisekunden einer gründlichen Analyse zu widmen, ohne den Druck einer sofortigen Ausführung zu haben. Dies kann zu ausgefeilteren und genaueren Entscheidungsprozessen führen.
Aus diesem Rechenvorteil ergeben sich Forschungsfragen. Wie können algorithmische Händler bei ihrer Entscheidungsfindung das richtige Gleichgewicht zwischen Geschwindigkeit und Intelligenz finden? Sind mit der Bevorzugung von Geschwindigkeit gegenüber Intelligenz auf dem Markt negative externe Effekte verbunden? Verbessert das zeitdiskrete Framework die Genauigkeit der Preisbildung im Vergleich zum zeitkontinuierlichen Handel?
Für Aufsichtsbehörden bietet der zeitdiskrete Handel den Vorteil einer saubereren Papierspur. In zeitkontinuierlichen Märkten kann die Synchronisierung von Uhren und die Anpassung von Zeitstempeln zu Komplexitäten bei der Rekonstruktion der Abfolge von Ereignissen führen. Es wird schwierig, die chronologische Reihenfolge der Aktionen in verschiedenen Märkten zu bestimmen. Im Gegensatz dazu vereinfacht der zeitdiskrete Handel diesen Prozess und erleichtert die Erstellung einer klaren und genauen Aufzeichnung der Marktaktivitäten.
Die potenziellen Vorteile einer sauberen Papierspur im zeitdiskreten Handel sind eine offene Frage. Intuitiv kann eine gut dokumentierte und leicht nachvollziehbare Marktaktivität die Transparenz und Verantwortlichkeit verbessern. Es kann die Marktüberwachung verbessern und den Regulierungsbehörden dabei helfen, manipulative oder illegale Handelspraktiken effektiver zu erkennen und zu bekämpfen.
Unsere Forschung beleuchtet die wirtschaftlichen Mängel im vorherrschenden Design kontinuierlicher Limit-Orderbücher und stellt einen alternativen Ansatz vor, der als zeitdiskreter Handel oder häufige Batch-Auktionen bezeichnet wird. Dieses alternative Design geht auf Probleme wie Sniping und Auftragserwartung ein und fördert Fairness, Stabilität und Effizienz im Finanzaustausch. Durch die Untersuchung dieser offenen Fragen und Forschungsrichtungen wollen wir weitere Untersuchungen zur Gestaltung von Finanzbörsen anregen und die Bereiche Wirtschaftswissenschaften und Informatik verbinden, um die Marktfunktionalität und -leistung zu verbessern.
Der zeitdiskrete Handel bietet mehrere Rechenvorteile gegenüber dem zeitkontinuierlichen Handel. Es vereinfacht die Nachrichtenverarbeitung für den Austausch, reduziert Rechenengpässe und ermöglicht ausgefeiltere algorithmische Strategien. Darüber hinaus bietet es den Regulierungsbehörden eine sauberere Dokumentation und verbessert die Marktüberwachung und Transparenz. Es bedarf jedoch weiterer Forschung, um die Auswirkungen und potenziellen Nachteile des zeitdiskreten Handels in der Praxis zu untersuchen.
ChatGPT und maschinelles Lernen im Handel
ChatGPT und maschinelles Lernen im Handel
Der Moderator befasst sich mit dem Thema der Verwendung von NLP-Modellen (Natural Language Processing) wie ChatGPT in der Handelsbranche und betont deren Fähigkeit, Textquellen wie Nachrichtenartikel, Social-Media-Beiträge und Finanzberichte zu analysieren und zu verstehen. Insbesondere ChatGPT, ein leistungsstarkes Sprachmodell, eignet sich gut für die Analyse großer Mengen an Finanzdaten und die Generierung natürlich klingender Antworten, sodass Händler Gespräche über Handelsmöglichkeiten führen können.
Die Finanzwelt hat hohe Erwartungen an ChatGPT und erwartet seinen Beitrag zur Entwicklung und Optimierung von Handelsstrategien. Der Referent erläutert weiter die Unterschiede zwischen künstlicher Intelligenz (KI), maschinellem Lernen (ML) und Deep Learning und betont, dass maschinelles Lernen eine Teilmenge der KI ist, die Techniken einsetzt, um Maschinen beizubringen, menschliches Verhalten zu simulieren und intelligente Entscheidungen zu treffen.
Anschließend erörtert der Moderator den typischen Arbeitsablauf von ML im Handel. Sie erklären, dass ML es Maschinen ermöglicht, anhand einer Reihe von Schritten aus Daten zu lernen und Vorhersagen zu treffen. Zunächst werden Daten gesammelt und vorverarbeitet, um deren Qualität und Relevanz sicherzustellen. Als nächstes werden Funktionen entwickelt, um Rohdaten in aussagekräftige Attribute umzuwandeln, die Maschinen verstehen können. Anschließend werden die Daten in Trainings- und Testsätze unterteilt und mithilfe von ML-Algorithmen ein Modell erstellt. Abschließend wird das Modell anhand neuer Daten getestet. Wenn es zufriedenstellend funktioniert, kann es für Vorhersagen verwendet werden, um den Handelsprozess zu erleichtern.
Um die Anwendung von ML zu veranschaulichen, liefert der Referent ein Beispiel für die Vorhersage der Höchst- und Tiefstpreise eines Vermögenswerts, wie zum Beispiel Gold, für den nächsten Handelstag. Diese Vorhersage kann Händlern sehr dabei helfen, fundierte Entscheidungen zu treffen und ihre Handelsstrategien zu verbessern.
Darüber hinaus untersucht der Moderator, wie ChatGPT als wertvolles Werkzeug bei der Lösung von Handelsproblemen dienen kann, beispielsweise bei der Erstellung eines linearen Regressionsmodells zur Vorhersage des Goldpreises. Sie vergleichen den Ansatz von ChatGPT mit einem umfassenderen quantitativen Ansatz, der Datenerfassung, Bereinigung, Modellerstellung, Pipeline-Entwicklung, Live-Handel und kontinuierliche Verbesserung umfasst. Es wird ein Beispiel für ein Regressionscode-Notizbuch für maschinelles Lernen geteilt, in dem die vier wichtigsten Schritte zur Lösung des Problems beschrieben werden: Datenvorbereitung, Vorverarbeitung, Preisvorhersage sowie Strategie- und Leistungsanalyse. Während ChatGPT bei der Ideengenerierung hilfreich sein kann, betont der Moderator die Notwendigkeit eines differenzierten Verständnisses jedes Konzepts und einer sorgfältigen Überlegung, um Fehler zu vermeiden.
Es werden auch die Einschränkungen und Risiken angesprochen, die mit der Verwendung von ChatGPT im ML-basierten algorithmischen Handel verbunden sind. Der Referent weist auf potenzielle Herausforderungen hin, darunter fehlende Fachkenntnisse, begrenzte Trainingsdaten und Probleme bei der Interpretierbarkeit. Sie warnen davor, sich bei Handelsentscheidungen ausschließlich auf ChatGPT zu verlassen, und betonen, wie wichtig es ist, Genauigkeitsprüfungen über verschiedene Finanzperioden hinweg durchzuführen.
Darüber hinaus erläutert der Moderator die Ergebnisse einer Umfrage zur Fähigkeit von ChatGPT, Code präzise zu generieren. Die Mehrheit der Zuhörer (74 %) erkennt zu Recht, dass ChatGPT eine angemessene Genauigkeit bieten kann, sich jedoch nicht für komplexe Programmieraufgaben eignet, die Fachkenntnisse in diesem Bereich erfordern. Zur Veranschaulichung des Prozesses demonstriert der Moderator, wie man Daten mit von ChatGPT generiertem Python-Code in Trainings- und Testsätze aufteilt. Sie betonen die korrekte Reihenfolge der Daten, insbesondere im Zusammenhang mit Zeitreihendaten im Handel.
Die Bewertung ML-basierter Handelsalgorithmen durch Backtesting und Strategieanalysen wird als entscheidender Schritt bei der Bewertung ihrer Leistung hervorgehoben. Der Referent betont die Notwendigkeit einer eingehenden Analyse unter Verwendung verschiedener Kennzahlen wie der Sharpe-Ratio, der jährlichen Rendite und der Volatilität der Renditen, um Einblicke in Trades und die Gesamtleistung zu gewinnen. Als erster Schritt zur Bewertung der Wirksamkeit des Algorithmus wird ein Vergleich zwischen den Renditen eines Handelsalgorithmus und einer Buy-and-Hold-Strategie dargestellt.
Darüber hinaus präsentiert der Moderator ein Beispiel einer profitablen Handelsstrategie und betont die Bedeutung der Visualisierung und Analyse von Daten im Handelsprozess. Strategieanalysen, einschließlich jährlicher und kumulierter Renditen, sind entscheidend für die Bewertung des Erfolgs einer Strategie.
Der Moderator wechselt den Gang und geht auf die Einschränkungen der Verwendung von GPT für die Finanzanalyse im Handel ein. Das Publikum nahm zuvor an einer Umfrage teil, wobei die Mehrheit der Meinung war, dass eine angemessene Genauigkeit eine Überprüfung der Fakten erfordert und dass GPT möglicherweise nicht für Finanzanalysen geeignet ist. Um diese Einschränkung zu veranschaulichen, bittet der Moderator GPT, die Jahresabschlüsse von Apple und Microsoft für 2020 zu vergleichen. GPT liefert jedoch eine ungenaue Antwort und verdeutlicht seine Grenzen als Generatormodell, dem es an Domänenkompetenz mangelt. Der Referent unterstreicht, wie wichtig es ist, sich finanzbezogenes Wissen anzueignen, Bücher zu lesen und Fakten zu prüfen, bevor man ML-Algorithmen wie GPT auf den Handel anwendet.
Der Referent ist sich der Bedeutung domänenbezogener Kenntnisse im Finanzwesen bewusst und schlägt vor, Kurse zu belegen, um Fachwissen zu erwerben. Dieses Fachwissen ermöglicht es Händlern, maschinelle Lerntools wie ChatGPT besser zu nutzen. Um dies zu unterstützen, bietet der Moderator kostenlosen Zugang zu vier Notizbüchern aus einem Schulungskurs zum Thema „Handel mit maschinellem Lernen“ an, sodass die Zuschauer ein tieferes Verständnis des Codes und seiner Anwendung erlangen können.
Während der Frage-und-Antwort-Runde stellt sich häufig die Frage, ob ChatGPT in der Lage ist, mit den täglichen Veränderungen auf den Finanzmärkten Schritt zu halten. Der Moderator stellt klar, dass die Wirksamkeit von ChatGPT als Sprachmodell durch die Daten begrenzt ist, auf denen es trainiert wurde, und dass es nicht täglich aktualisiert wird. Für die effektive Nutzung von ChatGPT oder anderen maschinellen Lernmodellen im Finanzwesen ist es wichtig, über die neuesten Marktdaten auf dem Laufenden zu bleiben.
Die Referenten gehen auf verschiedene weitere Fragen des Publikums ein und liefern hilfreiche Informationen. Sie informieren das Publikum darüber, dass die aufgezeichnete Sitzung zur späteren Bezugnahme per E-Mail und auf ihrem YouTube-Kanal geteilt wird. Sie besprechen außerdem die Verfügbarkeit eines Notebooks für die nächsten 24 Stunden und erläutern das Konzept einer Pipeline beim maschinellen Lernen.
Es stellt sich eine spezielle Frage bezüglich der Konvertierung von vektorisiertem Python-Code in ein Format, das in einer Live-Handelsbibliothek eingesetzt werden kann. Die Referenten erklären, dass ChatGPT zwar bei der Codekonvertierung helfen kann, die Definition von Ereignisauslösern jedoch weiterhin erforderlich ist. Darüber hinaus erwähnen sie, dass Chargeability 3.5 keine Informationen für das Jahr 2022 liefert.
Abschließend diskutieren die Redner eine Handelsstrategie, die Hoch- und Tiefstvorhersagen für den nächsten Tag nutzt und mithilfe von Techniken des maschinellen Lernens optimiert wurde. Sie betonen die Anwendungen von Deep Learning im Handel, wie z. B. Zeitreihenprognosen, Portfoliooptimierung und Risikomanagement. Deep Learning kann in Verbindung mit Reinforcement Learning die Leistung von Handelsstrategien verbessern, indem es Agenten ermöglicht, durch Belohnungen und Strafen aus Fehlern zu lernen.
Der Referent betont, dass Domänenexpertise und Intuition nach wie vor von entscheidender Bedeutung für den zuverlässigen Einsatz von maschinellem Lernen im Handel sind. Während Tools wie ChatGPT bei der Analyse historischer Daten und der Einschätzung der Erfolgswahrscheinlichkeit zukünftiger Geschäfte hilfreich sein können, sollte man sich nicht ausschließlich auf sie verlassen. Es wird betont, wie wichtig es ist, sich domänenbezogenes Wissen anzueignen, Fakten zu überprüfen und kontinuierlich über die neuesten Marktdaten auf dem Laufenden zu bleiben, um eine genaue und fundierte Entscheidungsfindung in der Handelsbranche sicherzustellen.
Finanzmarktverhalten verstehen: Die Rolle mehrerer Datenkategorien
Finanzmarktverhalten verstehen: Die Rolle mehrerer Datenkategorien
Der Gastgeber beginnt das Webinar mit einer Einführung in das Thema des Verständnisses des Finanzmarktverhaltens und der Rolle mehrerer Datenkategorien. Die Diskussionsteilnehmer, darunter Professor Gotham Mitra, Dr. Ernest Chan und Dr. Mateo Campoloni, werden als Experten mit umfangreicher Erfahrung im Handel und in akademischen Karrieren vorgestellt. Ziel des Webinars ist es, zu untersuchen, wie Daten aus verschiedenen Kategorien eine entscheidende Rolle beim Verständnis und der Vorhersage des Finanzmarktverhaltens spielen, ein Thema, das in jüngster Zeit zunehmend an Bedeutung gewonnen hat. Es wird erwähnt, dass die Sitzung Teil des Zertifikats in Sentimentalysis und Alternative Data for Finance ist, das von Opticks Systems und QuantInsti angeboten wird.
Der erste Redner betont die Bedeutung von Daten für das Verständnis des Finanzmarktverhaltens. Während anfangs nur begrenzte Daten wie Marktpreise, Kauf- und Verkaufsaufträge und die Tiefe des Buchs verfügbar waren, muss heute eine breite Palette an Datenkategorien berücksichtigt werden. Dazu gehören Nachrichtendaten, Medienstimmungsdaten und alternative Daten. Trotz der Effizienzmarkthypothese, die darauf hindeutet, dass Märkte letztendlich alle Informationen integrieren, gibt es immer noch kurzfristige Ineffizienzen auf dem Markt. Daher spielen Daten eine entscheidende Rolle bei der Entdeckung von neuem Alpha und der Bewältigung zweier großer Marktprobleme: Portfolioplanung und Risikokontrolle. Der Referent betont zudem die wachsende Bedeutung von künstlicher Intelligenz (KI) und maschinellem Lernen im Umgang mit Daten.
Der nächste Redner stellt das Konzept des kausalen Investierens vor, bei dem die kausalen Zusammenhänge zwischen verschiedenen Prädiktoren und Zielvariablen untersucht werden und nicht nur statistische Korrelationen analysiert werden. Durch die Nutzung alternativer Daten wie Optionsaktivitäten können Anleger Einblicke in die zugrunde liegenden Ursachen von Preisbewegungen gewinnen und die Genauigkeit ihrer Handelsstrategien verbessern. Es wird ein Beispiel für die Mean-Reverting-Strategie angeführt, wobei betont wird, wie wichtig es ist, zu verstehen, warum sie gelegentlich fehlschlägt. Durch die Nutzung alternativer Daten zur Aufdeckung der Ursachen von Preisbewegungen können Anleger fundiertere Entscheidungen darüber treffen, wann sie ihre Strategien anwenden.
Die Bedeutung von Daten für Marktbetreiber, insbesondere alternativer Daten, wird von folgendem Redner erörtert. Alternative Daten beziehen sich auf alle Daten, die nicht bereits ein Industriestandard sind und ein ständig wachsendes Ökosystem bilden, in dem ständig neue Akteure und Datenanbieter entstehen. Diese Daten können aus verschiedenen Kanälen wie Kreditkartentransaktionen, Satellitenbildern, Mobilgerätedaten, Wetterdaten und mehr stammen. Der Redner erwähnt auch den Einsatz von Tools zur Verarbeitung natürlicher Sprache zur Analyse von Textdokumenten und zur Generierung von Stimmungsindikatoren, die für Anleger bei der Ergänzung ihrer Anlagestrategien wertvoll sein können.
Der Prozess der Nutzung alternativer Daten in Anlagestrategien wird vom nächsten Redner beschrieben. Dabei geht es darum, neue Informationsquellen zu identifizieren, die unstrukturierten Daten zu integrieren und in strukturierte Datensätze umzuwandeln. Nach der Entwicklung einer Anlagestrategie wird die Validierung zu einem entscheidenden Schritt, der ein Verständnis der Zuverlässigkeit der Daten und der statistischen Signifikanz der Ergebnisse erfordert. Der Referent betont, wie wichtig es sei, bei der Erstellung von Modellen nicht nur auf alternative Daten zu setzen, sondern auch Marktdaten zu berücksichtigen.
Die Referenten befassen sich mit der Bedeutung alternativer Daten für die Erfassung von Markttrends und den Herausforderungen, die mit dem Backtesting solcher Daten verbunden sind. Während sich technische Händler früher auf einfache Kennzahlen wie den gleitenden 120-Tage-Durchschnitt verließen, gibt es jetzt Bestrebungen, eine breitere Palette von Datenkategorien einzubeziehen, um die Renditeursachen zu verstehen. Da es sich bei alternativen Daten jedoch um relativ neue Daten handelt, gibt es Bedenken hinsichtlich der Art und Weise, wie sie Backtests durchführen und wie konsistent sie im Laufe der Zeit bleiben. Um die Auswirkungen von Anlagestrategien zu verstehen, muss die Stabilität des Systems hinsichtlich zufälliger Schwankungen beurteilt werden.
Die Redner diskutieren die Nutzung alternativer Datenplattformen wie Bloomberg Icon und Reuters Quantum durch Händler zur Entwicklung robuster Anlagestrategien. Obwohl diese Plattformen über eigene Modelle zur Quantifizierung verschiedener Datenformen wie Stimmung und Nachrichten verfügen, empfehlen die Referenten Händlern, eigene Modelle zu erstellen. Die Bedeutung der Nutzung von APIs zum Empfang alternativer Dateneingaben wird hervorgehoben und der Wert organisierter Websites wie Credit Suisse bei der Analyse von Unternehmensmitteilungen wird erwähnt. Abschließend weisen die Redner darauf hin, dass enge, spezialisierte Ansätze bei der Analyse des Marktverhaltens äußerst effektiv sein können.
Anschließend besprechen die Referenten die verschiedenen Tools und Websites, die genutzt werden können, um das Verhalten verschiedener Anlageklassen auf dem Finanzmarkt zu verstehen und wie man den Markt basierend auf Anlagestil und Zeithorizont verfolgen kann. Obwohl sie anerkennen, dass es keine einheitliche Lösung gibt, weisen sie darauf hin, dass qualitative Informationen von Websites wie Bloomberg in dieser Hinsicht hilfreich sein können. Sie betonen auch, wie wichtig es ist, die Stimmung und alternative Datenquellen wie Microblogs und Chatrooms zu verstehen. Sie stellen jedoch fest, dass es nicht unbedingt garantiert ist, dass die Ausbildung zum Experten in diesen Bereichen zu einer besseren Karriere auf dem Finanzmarkt führt.
Anschließend erklärt der Redner den Unterschied zwischen der Entwicklung fortgeschrittener Handelsstrategien für große Fonds und einfachen Strategien für unabhängige Händler. Es wird erwähnt, dass komplexe Techniken für Arbeitssuchende bei großen Fonds möglicherweise besser geeignet sind, während unabhängigen Händlern empfohlen wird, mit einer Nischenstrategie zu beginnen, die für Institutionen möglicherweise nicht von Interesse ist. Dieser Ansatz hilft ihnen, die hohen Kosten zu vermeiden, die mit komplexen Datenfeeds verbunden sind. Der Redner hebt außerdem das zunehmende Interesse an neuen Datenquellen für den Handel hervor, was ihn zu einem relevanten Bereich macht, den es zu lernen und zu verfolgen gilt. Sie erwähnen auch, dass sie persönlich in gewissem Umfang alternative Daten in ihrem Fondsmanagement nutzen und Kunden bei der Implementierung von auf maschinellem Lernen und der Verarbeitung natürlicher Sprache basierenden Modulen oder der Validierung ihrer eigenen Strategien mithilfe von Datensätzen unterstützen.
Während der Frage-und-Antwort-Runde wird die Frage aufgeworfen, ob Twitter blaue Häkchen verkauft und ob verifizierte Konten bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) mehr Gewicht haben würden. Die Diskussionsteilnehmer haben zunächst Schwierigkeiten, die Frage zu verstehen, geben jedoch später zu, dass sie nicht qualifiziert sind, sie zu beantworten. Die Diskussion verlagert sich dann auf traditionelle Finanzdatenquellen, die für Anfänger und Studenten geeignet sind, wobei Bloomberg und Definitive als mögliche Optionen genannt werden. Es wird vorgeschlagen, dass Datenanbieter kostenlose Datensätze mit einem gewissen Grad an Interaktion anbieten könnten.
Anschließend geht der Referent auf die Nutzung alternativer Datenquellen zur Finanzmarktanalyse ein und erwähnt dabei insbesondere das Unternehmen DGLT, das Daten aus globalen und lokalen Nachrichtenquellen sammelt. Obwohl der Aufwand zum Herausfiltern relevanter Informationen anerkannt wird, wird darauf hingewiesen, dass die gesammelten Daten eine historische Perspektive auf das Marktverhalten bis ins 19. Jahrhundert bieten können. Auf die Frage, ob alternative Daten als alleinige Quelle oder zur Validierung neben traditionellen Daten verwendet werden sollten, gibt der Redner an, dass es keine allgemeine Regel gebe und dies von der konkreten Strategie abhängt, die angewendet wird. Sie betonen jedoch, dass Marktdaten nach wie vor der Haupttreiber sind und man sich nicht ausschließlich auf alternative Daten verlassen sollte.
Der Redner schließt das Webinar mit einer Diskussion über die Verwendung alternativer Daten auf Finanzmärkten und wie maschinelles Lernen zur Analyse solcher Daten eingesetzt werden kann. Sie unterstreichen die Notwendigkeit, mehrere Arten von Daten, einschließlich Preis- und Fundamentaldaten, in prädiktive Algorithmen für maschinelles Lernen einzugeben. Sie betonen jedoch auch, dass alternative Daten allein nicht als alleiniger Treiber dienen können und mit Marktpreisinformationen kombiniert werden sollten. Das Publikum wird ermutigt, sich bei weiteren Fragen an uns zu wenden.
Einführung in quantitatives Factor Investing
Einführung in quantitatives Factor Investing
Dieses Video stellt das Konzept des quantitativen Factor Investing und seine Klassifizierung in verschiedene Faktoren vor, darunter Value, Momentum, Qualität und Größe. Der Referent erklärt, dass es beim Factor Investing um die Auswahl von Wertpapieren geht, die auf bestimmten Faktoren basieren, die die Rendite steigern sollen, und zwar über einen langen Zeitraum. Das Video behandelt verschiedene quantitative Methoden, die zur Anwendung quantitativer Faktorinvestitionen verwendet werden können, einschließlich statistischer Analyse, Faktormodellierung, maschinellem Lernen, Optimierungsmodellen, Zeitreihenanalyse, Risikomodellen und Montagesimulation. Der Referent geht außerdem auf die Vorteile des Einsatzes quantitativer Faktorinvestitionen und den Prozess der Auswahl und Kombination von Faktoren ein und beantwortet Fragen zum Thema, unter anderem zu den Datenquellen und der Eignung für den Mittel-/Hochfrequenzhandel.
Im Webinar bietet Varun Kumar, quantitativer Analyst bei QuantInsti, eine umfassende Einführung in das quantitative Factor Investing. Er beginnt mit der Erläuterung des Konzepts der Faktoren, bei denen es sich um umfassende und dauerhafte Risiko- und Renditequellen handelt, die Anleger zu quantifizierbaren Renditen führen. Zu den häufigen Faktoren gehören Wert, Momentum, Qualität, Größe und Volatilität. Kumar konzentriert sich beispielhaft auf den Faktor Qualität, bei dem es darum geht, in Unternehmen mit hochwertigen Merkmalen zu investieren. Zur Quantifizierung der Qualität eines Unternehmens werden Finanzkennzahlen wie die Eigenkapitalrendite und die Wachstumsrate der Rentabilität herangezogen. Aktien mit hohen Quoten und hohen Margen gelten als qualitativ hochwertig, während Aktien mit niedrigeren Quoten und Margen als minderwertig gelten. Historische Daten zeigen, dass Portfolios, die aus hochwertigen Aktien bestehen, über lange Zeiträume hinweg Überrenditen generiert haben.
Anschließend befasst sich Kumar mit der Klassifizierung von Faktoren beim quantitativen Factor Investing. Faktoren werden in sieben Typen eingeteilt, darunter Makrofaktoren, stilbasierte Faktoren, sektorale Faktoren, ESG-basierte Faktoren, stimmungsbasierte Faktoren, liquiditätsbasierte Faktoren und technische Faktoren. Er gibt Einblicke in die Funktionsweise jedes dieser Faktoren und wie sie zum Aufbau von Faktorportfolios genutzt werden können. Um dies zu veranschaulichen, präsentiert er Beispiele für Strategien, die auf makroökonomischen und stilbasierten Faktoren basieren. Bei diesen Strategien werden Variablen wie BIP-Wachstum, Inflationsrate, Zinssatz und Eigenkapitalrendite genutzt, um Aktien auszuwählen und ein Portfolio aufzubauen. Kumar betont außerdem, wie wichtig es ist, bei der Auswahl von Aktien für ein Portfolio Faktoren wie eine höhere Eigenkapitalrendite und ein niedriges Verhältnis von Schulden zu Eigenkapital zu berücksichtigen.
Das Webinar untersucht außerdem verschiedene Faktoren, die in quantitative Faktorinvestitionsstrategien integriert werden können, darunter Stilfaktoren, Branchenmatrix, ESG-Kriterien, Stimmung, Liquidität und technische Indikatoren. Kumar erklärt, wie diese Faktoren genutzt werden können, um einen logischen Rahmen für den Aufbau von Portfolios zu entwickeln, und liefert Beispiele aus der Praxis für Strategien, die mithilfe dieser Faktoren umgesetzt werden können. Er geht kurz auf ESG-Kriterien ein, die für Umwelt-, Sozial- und Governance-Kriterien stehen, und auf ihre Rolle bei der Bewertung von Unternehmen anhand ihrer Auswirkungen auf Gesellschaft und Umwelt.
Auch der Einsatz mathematischer Modelle und statistischer Analysen beim quantitativen Factor Investing wird diskutiert. Kumar betont, dass diese Methoden dazu beitragen, emotionale Vorurteile bei Investitionsentscheidungen zu beseitigen und die Erforschung weniger intuitiver Faktoren zu ermöglichen. Er stellt die sieben am häufigsten verwendeten quantitativen Methoden in diesem Bereich vor, darunter statistische Analyse, Faktormodellierung, maschinelles Lernen, Optimierungsmodelle, Zeitreihenanalyse, Risikomodelle und Monte-Carlo-Simulationen. Das Video zeigt, wie statistische Analysen eingesetzt werden können, um Muster und Korrelationen zwischen Wertpapieren und Faktoren zu identifizieren.
Im Webinar werden die Vorteile quantitativer Faktorinvestitionen beim Aufbau und der Verwaltung von Anlageportfolios beleuchtet. Ein wesentlicher Vorteil ist die Möglichkeit, extreme Marktbedingungen zu simulieren, was Anlegern hilft, die Grenzen ihrer Portfolios besser zu verstehen. Der Redner betont die Unterschiede im Ansatz zwischen traditionellem und quantitativem Factor Investing anhand einer Fallstudie eines Large-Cap-Aktienportfolios mit niedrigem Kurs-Gewinn-Verhältnis. Während es beim traditionellen Investieren darum geht, Faktoren zu identifizieren, das Universum der Large-Cap-Aktien zu bestimmen und die Faktoren für jede Aktie zu berechnen, bevor sie anhand der KGV-Verhältnisse sortiert werden, werden beim quantitativen Faktor-Investieren Datenerhebung, Vorverarbeitung und Merkmalsauswahl eingesetzt. Es wird ein Modell erstellt, um Aktienkurse basierend auf den ausgewählten Merkmalen vorherzusagen.
Der Prozess des quantitativen Faktor-Investierens wird erläutert, wobei die Bedeutung der Erstellung genauer Modelle zur Vorhersage von Aktienkursen auf der Grundlage spezifischer Merkmale hervorgehoben wird. Der Redner betont, dass dieser Ansatz datengesteuert und objektiver im Vergleich zum herkömmlichen Factor Investing ist und eine genauere und zuverlässigere Analyse ermöglicht. Um die besten Faktoren für Investitionen auszuwählen, sollten die Faktoren beständig sein, in verschiedenen Märkten und Sektoren funktionieren, robust gegenüber verschiedenen Marktbedingungen sein, nicht übermäßig empfindlich gegenüber Veränderungen in der Marktethik sein und über genügend Liquidität und Kapazität verfügen.
Das Webinar behandelt auch die Kombination von Faktoren beim quantitativen Factor Investing. Es werden fünf häufig verwendete Methoden besprochen, darunter die Gleichgewichtung und die Faktorbewertung, bei der jeder Faktor auf der Grundlage seiner historischen Leistung bewertet wird und ein gewichteter Durchschnitt gebildet wird, um eine Gesamtbewertung zu erhalten. Die Bedeutung der Kombination von Faktoren wird hervorgehoben, da sie das Portfoliorisiko verringert, die Diversifizierung erhöht und die Volatilität der Performance minimiert. Der Redner skizziert fünf Hauptmerkmale eines besten Faktors, darunter die Untermauerung durch empirische Beweise, das Vorhandensein einer wirtschaftlichen oder finanziellen Grundlage, das Angebot langfristiger Investitionsmöglichkeiten, die Investierbarkeit sowie die Intuition und breite Akzeptanz.
Anschließend geht der Referent auf verschiedene Methoden zur Kombination von Faktoren beim quantitativen Factor Investing ein. Eine dieser Methoden ist die Hauptkomponentenanalyse (PCA), die mehrere Faktoren zu einem kleineren Satz unkorrelierter Komponenten kombiniert. Dieser Ansatz reduziert die Anzahl der Faktoren und befasst sich mit dem Problem korrelierter Faktoren, auch bekannt als Multikollinearität. Eine andere Methode ist das Factor Tilting, bei dem die Gewichtungen oder Allokationen in einem Portfolio angepasst werden, um einen bestimmten Faktor hervorzuheben. Diese Technik bietet Flexibilität und ermöglicht es Anlegern, auf bestimmte Faktoren abzuzielen. Darüber hinaus kann maschinelles Lernen genutzt werden, um Faktoren basierend auf ihrer historischen Leistung auszuwählen oder zu kombinieren und so nichtlineare Beziehungen effektiv zu erfassen. Der Redner betont, wie wichtig es ist, beim Einsatz von Deep-Learning-Algorithmen Vorsicht walten zu lassen, da diese erhebliche Datenmengen erfordern und zu einer Überanpassung neigen können. Für optimale Ergebnisse wird empfohlen, sie mit herkömmlichen statistischen Methoden zu kombinieren.
Darüber hinaus geht der Referent auf die Fragen des Publikums zum Thema quantitatives Factor Investing ein. Die Fragen decken verschiedene Themen ab, beispielsweise die Verwendung von Preisbewegungen und langfristigen Charts als Faktoren für Investitionen, wobei der Redner vorschlägt, dass diese als technischer Faktor verwendet werden können, indem man sie entsprechend definiert und ihre historische Leistung untersucht. Die Unterscheidung zwischen gehandelten und nicht gehandelten Faktoren wird am Beispiel von Immobilien als nicht gehandelter Faktor erläutert, da die Liquiditätsbestimmung schwierig ist. Der Fokus beim quantitativen Factor Investing liegt vor allem auf gehandelten Faktoren, da deren Daten leicht zugänglich sind und ein Backtesting ermöglichen. Der Redner gibt auch Einblicke in die Bestimmung, ob ein Unternehmen eher auf Value oder Wachstum ausgerichtet ist, und schlägt Techniken wie die Verwendung des Kurs-Gewinn-Verhältnisses zur Definition von Value-Aktien vor.
Die Diskussion wird mit der Untersuchung verschiedener Algorithmen fortgesetzt, die beim quantitativen Faktorinvestieren verwendet werden. Erwähnt werden Algorithmen wie rekurrente neuronale Netze (RNNs) und das lange Kurzzeitgedächtnis (LSTM), deren Relevanz von der Art der analysierten Daten abhängt. Deep-Learning-Techniken können eingesetzt werden, um Faktoren zu kombinieren und optimale Gewichtungen für jeden Faktor zu bestimmen, was zu einer verbesserten Portfolio-Performance führt. Der Redner gibt Ratschläge zu Backtesting-Faktorstrategien und betont die Bedeutung der Prüfung ihrer statistischen Signifikanz über mehrere Datensätze und Märkte hinweg. Erwähnt wird auch die Verwendung von Bollinger-Bändern als technischer Indikator zur Identifizierung von Seitwärtsmärkten.
Abschließend endet das Webinar mit einer abschließenden Frage-und-Antwort-Runde, in der der Redner auf weitere Fragen des Publikums eingeht. Zu den Fragen gehört die Rolle von Deep-Learning-Algorithmen bei der Auswahl von Industriesektoren, wobei verschiedene Optionen wie Entscheidungsbäume, neuronale Netze und Zufallswälder hervorgehoben werden. Es wird betont, dass die Auswahl des Algorithmus von der konkreten Aufgabenstellung und dem vorliegenden Datensatz abhängt. Der Redner betont erneut, wie wichtig es ist, Deep-Learning-Algorithmen aufgrund ihrer Datenanforderungen und der Möglichkeit einer Überanpassung mit Vorsicht einzusetzen. Dem Publikum wird für seine Teilnahme gedankt und es wird ermutigt, Feedback zur Sitzung zu geben.
Maschinelles Lernen für den Optionshandel
Maschinelles Lernen für den Optionshandel
Im Webinar über maschinelles Lernen für den Optionshandel bietet der Redner Varun Kumar Patula zunächst eine Einführung in maschinelles Lernen und seinen grundlegenden Zweck. Er erklärt, dass Algorithmen des maschinellen Lernens verwendet werden, um Daten zu analysieren und Muster zu entdecken, die für Menschen möglicherweise unbemerkt bleiben. Varun unterscheidet zwischen künstlicher Intelligenz, maschinellem Lernen und Deep Learning und betont, dass maschinelles Lernen eine Teilmenge der KI ist, die sich darauf konzentriert, Modelle zu trainieren, um Vorhersagen oder Entscheidungen auf der Grundlage von Daten zu treffen. Er unterteilt maschinelles Lernen außerdem in drei Typen: überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen, jede mit ihren eigenen Merkmalen und Anwendungen.
Anschließend befasst sich der Referent mit der Anwendung von maschinellem Lernen im Optionshandel, einem Schwerpunkt des Webinars. Beim Optionshandel handelt es sich um den Kauf oder Verkauf von Optionskontrakten, die dem Inhaber das Recht einräumen, einen Vermögenswert zu einem bestimmten Preis innerhalb eines bestimmten Zeitraums zu kaufen oder zu verkaufen. Varun hebt das hohe Risiko hervor, das mit dem Optionshandel verbunden ist, und erklärt, wie maschinelles Lernen die Analysegenauigkeit verbessern und dadurch das Risiko verringern kann. Er geht ausführlich auf die verschiedenen Anwendungen des maschinellen Lernens im Optionshandel ein, darunter die Preisgestaltung von Optionen, die Gestaltung von Handelsstrategien, die Berechnung der Volatilität und die Prognose der impliziten Volatilität. Diese Anwendungen zielen darauf ab, die Entscheidungsfindung zu verbessern und die Rentabilität im Optionshandel zu steigern.
Um den Bedarf an maschinellem Lernen im Optionshandel zu verstehen, werden die Einschränkungen traditioneller Modelle wie des Black-Scholes-Modells diskutiert. Das Black-Scholes-Modell geht von einem konstanten risikofreien Zinssatz und einer konstanten Volatilität aus, was in realen Szenarien möglicherweise nicht zutrifft. Varun erwähnt alternative Modelle wie das German Candy-Modell und das Heston-Modell, die ihre eigenen Einschränkungen und Anforderungen an Eingabeparameter haben. Die vorgeschlagene Lösung besteht darin, maschinelles Lernen als Ersatz oder Kombination dieser Modelle zu nutzen, da es einen erweiterten Satz an Funktionen und Eingabeparametern ermöglicht. Modelle für maschinelles Lernen können Faktoren wie implizite oder realisierte Volatilität, Zinssätze und andere relevante Merkmale berücksichtigen, um den fairen Preis von Optionen zu bestimmen. Dies ermöglicht eine genauere Preisgestaltung, Auswahl von Ausübungspreisen und Absicherungsstrategien. Varun betont, dass empirische Untersuchungen zeigen, dass Deep-Learning-Modelle mit mehreren verborgenen Schichten, wie etwa das Multi-Layer-Perceptron-Modell, das Black-Scholes-Modell übertreffen, insbesondere bei Optionen, die weit außerhalb des Geldes oder am Geld liegen.
Im weiteren Verlauf des Webinars wird die Optimierung von Handelsentscheidungen mithilfe von Modellen des maschinellen Lernens für Optionsstrategien untersucht. Der allgemeine Prozess umfasst die Analyse der bullischen oder bärischen Stimmung des Basiswerts und die entsprechende Auswahl einer geeigneten Strategie. Allerdings weisen viele Optionsstrategien eine verzerrte Risiko-Rendite-Verteilung auf, was eine genauere Analyse erforderlich macht. Maschinelles Lernen kann diese Analyse verbessern, indem es Merkmale wie vergangene Renditen, Momentum und Volatilität berücksichtigt, um Erkenntnisse über den zugrunde liegenden Vermögenswert zu gewinnen. Diese Merkmale werden dann in ein maschinelles Lernmodell eingegeben, um die nächste Handelsperiode als bullisch oder bärisch zu klassifizieren. Das Video geht auch auf die in den SP500-Indexdaten verwendeten Merkmale ein und betont die Bedeutung der Merkmalsanalyse bei Optionsstrategieentscheidungen.
Als nächstes konzentriert sich der Redner auf die Konstruktion von Modellen für maschinelles Lernen für Handelsentscheidungen zu vertikalen Options-Spreads. Sie erklären, dass die Eingabeparameter dieselben bleiben wie im vorherigen Beispiel, wo ein Entscheidungsbaumklassifikator verwendet wird, um den nächsten Handelstag als bullisch oder bärisch zu klassifizieren. Um Optionen auszunutzen, werden Spreads wie Bull-Call-Spreads oder Bear-Put-Spreads eingeführt, da diese das Risiko begrenzen. Modelle des maschinellen Lernens werden kombiniert, um die Handelsspanne und die Volatilität des Kontrakts vorherzusagen. Durch die Nutzung dieser kombinierten Modelle können Händler die optimalen Einstellungen für vertikale Spreads in ihren Handelsstrategien bestimmen und gleichzeitig die implizite Volatilität vorhersagen, die beim Optionshandel von entscheidender Bedeutung ist.
Eine weitere Anwendung des maschinellen Lernens im Optionshandel ist die Vorhersage der impliziten Volatilität und das Treffen kalkulierter Entscheidungen über Optionsstrategien. Durch die Eingabe historischer impliziter Volatilität und anderer relevanter Merkmale in Modelle für maschinelles Lernen können Händler die Volatilität vorhersagen und geeignete Strategien wie Short Straddles oder Short Strangles auswählen. Der Redner berichtet von einer Fallstudie, in der ein Modell für maschinelles Lernen erstellt wurde, um die am besten geeignete Optionsstrategie auf der Grundlage einer Liste von Strategien und Eingabemerkmalen, einschließlich zugrunde liegender Daten und Optionsdaten, vorherzusagen. Durch die Gestaltung eines Strategieuniversums und die Ausweitung der Studie auf verschiedene Kontrakte können Händler maschinelles Lernen nutzen, um die beste Strategie zu erstellen und auszuwählen, die ihren Handelszielen entspricht.
Im Webinar beschreibt der Referent, wie sie 27 verschiedene Strategien für den Optionshandel entwickelt haben, indem sie verschiedene Kombinationen von Positionen und Kontrakten untersucht haben. Um die Strategien zu verfeinern, haben sie sie auf 20 reduziert, indem sie Kombinationen eliminiert haben, bei denen eine Position in einem Caller fehlte oder die auf unpraktischen Kombinationen wie kurzen Straddles beruhten. Um zu bestimmen, welche dieser 20 Strategien den maximalen Ertrag bringen würde, verwendete der Redner ein Modell des maschinellen Lernens, insbesondere ein Modell des langen Kurzzeitgedächtnisses (LSTM). Dieses Modell umfasste Eingabemerkmale von zugrunde liegenden Vermögenswerten, Optionen und Volatilität und nutzte ein Klassifizierungssystem mit mehreren Klassen, um die optimale Strategie für den Einsatz zu ermitteln.
Das Video beleuchtet auch die Merkmale im Zusammenhang mit Optionsstufen und die Struktur des neuronalen Netzwerks, das für das LSTM-Modell verwendet wird. Beim Trainieren des Modells anhand von Daten aus etwa zehn Jahren generierte es Strategiebezeichnungen basierend auf den Eingabemerkmalen. Die Ergebnisse zeigten, dass das maschinelle Lernmodell im Laufe der Zeit den zugrunde liegenden Vermögenswert übertraf. Um die Vorhersagegenauigkeit von Machine-Learning-Modellen für Optionen zu verbessern, empfiehlt der Referent mehrere Best Practices. Dazu gehören die Nutzung von Wahrscheinlichkeitsniveaus zur Feinabstimmung, der Einsatz mehrerer Vision-Modelle, die Implementierung der Abstimmungsklassifikatortechnik und die Nutzung der Ergebnisse mehrerer Klassifikatoren zum Trainieren eines anderen maschinellen Lernmodells für verbesserte Genauigkeit und Rentabilität.
Darüber hinaus untersucht der Referent Methoden zur Verbesserung der Leistung von Klassifizierungsmodellen im Optionshandel. Diese Methoden umfassen die Nutzung von Wahrscheinlichkeitsniveaus, den Einsatz von Ensemble-Techniken durch die Kombination mehrerer Klassifikatoren und die Verwendung von Modellen des maschinellen Lernens, um die Ergebnisse verschiedener Modelle zu aggregieren. Die Bedeutung von Hyperparameter-Tuning und Kreuzvalidierungstechniken wird hervorgehoben, um eine höhere Genauigkeit der Modelle zu erreichen. Der Redner betont auch die Bedeutung des Papierhandels vor der Umsetzung einer Strategie mit echtem Geld. Diese Vorgehensweise ermöglicht es Händlern, praktische Probleme oder Herausforderungen zu erkennen und anzugehen, bevor sie tatsächliches Kapital riskieren.
In der anschließenden Frage-und-Antwort-Runde geht der Redner auf Fragen der Teilnehmer ein. Die Fragen decken verschiedene Themen ab, darunter die Leistung der maschinellen Lernstrategie für den Optionshandel, die zur Auswahl von Merkmalen für das Modell verwendete Methodik, die Vorteile des maschinellen Lernens gegenüber bestehenden technischen Indikatoren, die Berechnung der Merkmalsbedeutung und die angemessene Haltedauer für der SPY (Standard & Poor's 500 Index). Der Redner stellt klar, dass die Leistung der Strategie nicht allein auf die Marktrichtung im Jahr 2020 zurückzuführen ist, da die für das Modell verwendeten Daten bis ins Jahr 2010 zurückreichen und Zeiträume nach 2020 umfassen. Sie erklären, dass der Optionshandel eine detailliertere Analyse erfordert, die Faktoren wie Optionsgriechen berücksichtigt und implizite Volatilität, was maschinelles Lernen zu einem wertvollen Werkzeug macht. Die Auswahl der Funktionen für das Modell basiert auf einer Kombination aus Handelserfahrung und fundierter Entscheidungsfindung.
Gegen Ende des Webinars bespricht der Referent die Voraussetzungen für den begleitenden Kurs und empfiehlt Vorkenntnisse über maschinelles Lernen und verwandte Kurse, um dessen Nutzen zu maximieren. Während sich der Kurs in erster Linie auf die Erstellung von Modellen für maschinelles Lernen für den S&P 500-Optionshandel konzentriert, können die Konzepte durch weitere Schulung und Anpassung angepasst und auf andere Verträge angewendet werden. Der Kurs bietet kein vorgefertigtes Modell für maschinelles Lernen, sondern vermittelt den Teilnehmern das Wissen und die Fähigkeiten, die sie zum Erstellen eigener Modelle benötigen.
Das Webinar bietet einen umfassenden Überblick über die Anwendung von maschinellem Lernen im Optionshandel. Es behandelt die Grundlagen des maschinellen Lernens, seine Unterschiede zu anderen verwandten Bereichen und die drei Arten von Algorithmen für maschinelles Lernen. Das Webinar betont die Notwendigkeit von maschinellem Lernen im Optionshandel, da es die Analysegenauigkeit verbessern und Risiken mindern kann. Es werden verschiedene Anwendungen des maschinellen Lernens im Optionshandel besprochen, darunter die Preisgestaltung von Optionen, die Gestaltung von Handelsstrategien und die Prognose der impliziten Volatilität. Das Webinar befasst sich außerdem mit der Konstruktion maschineller Lernmodelle für vertikale Options-Spreads und der Optimierung von Handelsentscheidungen.
Portfolio-Vermögensallokation mit ML und Optimierung für Dividendenaktien | Algo-Handelsprojekt
Portfolio-Vermögensallokation mit ML und Optimierung für Dividendenaktien | Algo-Handelsprojekt
Der erste Vortrag auf der Veranstaltung wird von Raimondo Mourinho gehalten, einem unabhängigen KI- und Big-Data-Ingenieur, der für seine Arbeit mit kleinen und mittleren Unternehmen in Italien bekannt ist und KI-Lösungen für verschiedene Unternehmensfunktionen bereitstellt. Mourinho glaubt an die Kombination von maschinellen Lerntechniken, Statistiken und Wahrscheinlichkeiten, um fortschrittliche Handelssysteme zu schaffen. In seiner Präsentation stellt er sein praktisches und skalierbares Framework für die Entwicklung von Modellen für maschinelles Lernen in der Portfolio-Asset-Allokation vor.
Mourinho stellt zunächst die Schlüsselkomponenten vor, die zum Entwurf eines solchen Systems erforderlich sind. Er betont, wie wichtig es ist, eine Portfolio-Denkweise anzunehmen, Modelle des maschinellen Lernens zu nutzen, um Ideen in umsetzbare Strategien umzuwandeln, und die Leistungsfähigkeit von Multi-CPU-, Multi-Core- und GPU-Funktionen zu nutzen. Diese Zutaten bilden die Grundlage seines Rahmenwerks. Während er kurz die Notwendigkeit einer Infrastruktur bei der Inbetriebnahme erwähnt, konzentriert er sich auf die elementaren Blöcke des Rahmenwerks für den Handel mit niedriger bis mittlerer Frequenz und räumt ein, dass der letzte Teil des Rahmenwerks den Rahmen der Präsentation sprengen würde.
Anschließend geht der Redner auf die Kompetenzen ein, die zum Aufbau eines robusten Rahmens für die Portfolio-Asset-Allokation mithilfe von maschinellem Lernen und Optimierung für Dividendenaktien in Python erforderlich sind. Er betont die Notwendigkeit eines umfassenden Verständnisses von Portfoliotechniken, objektorientierter Programmierung, Multiverarbeitungstechniken und asynchroner Programmierung. Darüber hinaus werden Fachkenntnisse in Hyperparameter-Optimierungstools, SQL-Sprache und Docker-Technologie als wertvoll erachtet. Mourinho erklärt dann den ersten Schritt des Frameworks, der die Optimierung einer Datenbank für Zeitreihen, die Datenvorverarbeitung, den Umgang mit fehlenden Daten und Ausreißern, die Normalisierung von Daten und die Durchführung der Asset-Auswahl innerhalb des festgelegten Asset-Universums umfasst.
In der Präsentation geht es dann um die Phase der Alpha-Generierung, die der Terminologie des maschinellen Lernens zur Generierung von Handelssignalen entspricht. Mourinho betont, dass Händler in dieser Phase ihre Ideen mithilfe verschiedener Indikatoren, Stimmungsanalysen und ökonometrischen Modellen umsetzen. Der anschließende Schritt umfasst die Merkmalsauswahl, bei der redundante Merkmale, wie konstante und quasikonstante Merkmale, instationäre Merkmale und linear korrelierte Merkmale, mithilfe einer rangbasierten Methode entfernt werden. Darüber hinaus erwähnt er die Verwendung der fraktionalen Differenzierung, einer Technik, die die gewünschte Stationarität aufrechterhält und gleichzeitig wichtige Informationen innerhalb der Merkmale bewahrt. Diese Verbesserungen sind ein wesentlicher Bestandteil von Mourinhos Rahmen für die Portfolio-Asset-Allokation unter Verwendung von maschinellem Lernen und Optimierung für Dividendenaktien.
Die Neuausrichtung, die die Auswahl von Vermögenswerten und die Gewichtsverteilung umfasst, wird in der Lernpipeline ausführlich erläutert. Mourinho nutzt für die Vermögensauswahl die Querschnittsdynamik, die auf der relativen Stärke zwischen Vermögenswerten basiert. Für die Gewichtsverteilung kombiniert er traditionelle Techniken wie den Critical-Line-Algorithmus, das Inverse-Volatility-Portfolio und das gleichgewichtete Portfolio mit maschinellen Lernmodellen wie hierarchischer Risikoparität und hierarchischem gleichen Risikobeitrag. Der Referent stellt Simulationsergebnisse vor und bewertet die Leistung anhand historischer Daten. Er erwähnt auch seine Absicht, das Portfolio durch die Integration von Techniken wie der Drunken-Monkey-Strategie und der kombinatorisch bereinigten Kreuzvalidierung weiter zu verbessern. Darüber hinaus betont Mourinho die Bedeutung eines effektiven Geldmanagements bei der Anwendung dieser Techniken auf Live-Handelsszenarien.
Um die Schätzung der Parametervariabilität anzugehen, empfiehlt Mourinho den Einsatz von Techniken wie Monte-Carlo-Simulation und Bootstrapping. Er stellt die Ergebnisse seiner Analyse vor und konzentriert sich dabei auf das Endvermögen und die maximalen Drawdown-Perzentile. Der Redner betont, wie wichtig es ist, datengesteuert zu bleiben und sich nicht zu sehr an bestimmte Handelsideen zu klammern. Er empfiehlt außerdem, idiosynkratische Risiken durch den Einsatz unterschiedlicher Techniken zu mindern und eine Überanpassung durch die Auswahl einfacherer Systeme mit vergleichbarer Leistung zu vermeiden. Abschließend unterstreicht er die Notwendigkeit, Live-Handelssysteme aufgrund der instationären Natur von Zeitreihendaten kontinuierlich zu überwachen und anzupassen.
Während der Frage-und-Antwort-Runde beantwortet Mourinho mehrere Fragen des Publikums. Ein Teilnehmer fragt nach dem kritischsten Schritt in der Pipeline, wobei Mourinho die Datenvorverarbeitung als wesentlich und zeitaufwändig hervorhebt. Eine andere Frage dreht sich um die Datennormalisierung, und Mourinho schlägt die übliche Praxis vor, in den meisten Fällen den Mittelwert zu subtrahieren und durch die Standardabweichung zu dividieren. In Bezug auf die Entfernung linearer Korrelationen mithilfe der Hauptkomponentenanalyse (PCA) erkennt er deren Möglichkeit an, warnt jedoch vor dem möglichen Bedeutungsverlust der Merkmale und schlägt vor, Modelle wie das Sharpe-Verhältnis in Betracht zu ziehen, um die Ergebnisse effektiv zu interpretieren.
Anschließend erörtert der Redner die Verwendung von PCA für die Feature-Auswahl und ihre möglichen Auswirkungen auf die Interpretierbarkeit der Features. Angehenden quantitativen und algorithmischen Händlern wird empfohlen, EPAT (Executive Program in Algorithmic Trading) als wertvollen Ausgangspunkt in Betracht zu ziehen. Sie betonen, dass das Programm umfassende Lernziele bietet, die auf die Anforderungen der Branche abgestimmt sind. Den Teilnehmern des Webinars wird ein verlängerter Frühbucherzugang zum Programm angeboten und sie können ein Kursberatungsgespräch buchen, um zu erfahren, wie es ihnen beim Erreichen ihrer Karriereziele helfen kann, sei es die Einrichtung eines algorithmischen Trading Desks oder die Integration fortschrittlicher Technologien und Tools in ihren Handel Strategien.
Kurt Celestog, Projektmanager bei Hong Kong Exchange and Clearing Limited, betritt die Bühne, um sein Projekt zum Thema Portfoliomanagement vorzustellen, das Jay Palmers Vortrag über quantitatives Portfoliomanagement erweitert. Das Projekt von Celestog konzentriert sich auf die Optimierung der Dividendenrendite durch Portfoliomanagement. Sein Ziel ist es, regelmäßige Dividendenerträge zu generieren und gleichzeitig Stabilität und Wachstum der Dividendenausschüttungen zu gewährleisten und gleichzeitig den Wert des Portfolios zu erhalten. Sein Ziel ist es, durch optimale Portfoliomanagementtechniken den Referenzindex oder ETF sowohl bei der Dividendenrendite als auch bei der Kursrendite zu übertreffen. Celestog stand vor der Herausforderung, Dividendendaten zu beschaffen und entwickelte Web-Scraping-Funktionen zum Herunterladen dieser Daten. Er unterteilte den Datensatz in zwei Teile, die jeweils zehn Jahre abdeckten und wirtschaftliche Rezessionen und Expansionen umfassten.
Der Redner erörtert die Herausforderungen, die beim Datenbereinigungsprozess zur Optimierung des Dividendenaktienportfolios auftreten. Die von der Website erhaltenen Daten waren nicht sauber und erforderten Modifikationen und Normalisierungen, um Dividenden in Dollarbeträgen auszudrücken, insbesondere da die frühen Dividenden ursprünglich als Prozentsätze dargestellt wurden. Die Preisdaten stammen von Yahoo Finance und es wurden Kennzahlen wie die jährliche Dividendenrendite, das Dividendenwachstum und das durchschnittliche Wachstum berechnet. Für alle ausgewählten Aktien wurde ein zusammengesetztes Verhältnis abgeleitet, um zwei Portfolios zu erstellen: ein gleichgewichtetes Portfolio und ein gewichtungsoptimiertes Portfolio. Der Redner wollte analysieren, ob eine einzelne Optimierung, gefolgt von einer zehnjährigen Haltedauer, die Benchmark und den ETF übertreffen würde.
Anschließend teilt der Referent die Ergebnisse des Portfoliooptimierungsprojekts unter Einsatz maschineller Lerntechniken. Die dargestellten Grafiken zeigen grüne Blasen im oberen linken Quadranten, die die fünf Aktien mit der höchsten kombinierten Kennzahl darstellen. Sowohl die gleichgewichteten als auch die optimal gewichteten Portfolios wiesen höhere Durchschnittsrenditen und Dividendenrenditen auf als die Benchmark. Allerdings gewannen Bank- und Technologiewerte in den nächsten zehn Jahren immer mehr an Beliebtheit, was dazu führte, dass die Performance des optimierten Portfolios im Vergleich zur Benchmark zurückging. Um die Leistung zu verbessern, experimentierte der Redner damit, die Portfolios regelmäßig neu auszurichten und die fünf besten Aktien basierend auf der gewählten Kennzahl auszuwählen. Die neu gewichteten Portfolios übertrafen die Benchmark und wiesen eine höhere Dividendenrendite auf.
Der Redner betont, wie Portfoliooptimierung und regelmäßige Neuausrichtung zu höheren Dividendenrenditen führen und Benchmark-Indizes übertreffen können, insbesondere bei Dividendenaktien wie Real Estate Investment Trusts (REITs). Durch die Neuausrichtung der Portfolios alle sechs Monate und die Untersuchung verschiedener Rückblickszeiträume konnte der Redner den Index in Bezug auf durchschnittliche Dividendenrendite, Dividendenwachstum, Rendite und geringere Drawdowns erfolgreich übertreffen. Sie erkennen jedoch die Herausforderungen bei der Beschaffung und Bereinigung von Daten an und stellen fest, dass die Neuausgleichsfunktion komplex sein kann, und schlagen den Einsatz objektorientierter Programmierung vor, um dieser Komplexität zu begegnen. Insgesamt betont der Redner, dass Portfoliooptimierung und regelmäßige Neuausrichtung wertvolle Instrumente für Anleger sind.
Der Referent weist darauf hin, dass eine häufige Neuausrichtung des Portfolios entscheidend für die Erzielung einer Outperformance ist. Aufgrund der seltenen Verfügbarkeit von Dividendendaten für Dividendenaktien ist es jedoch schwierig, häufiger als ein- oder zweimal im Jahr eine Neuausrichtung vorzunehmen. Der Redner betont auch die Notwendigkeit weiterer Arbeiten am Projekt, einschließlich der Untersuchung verschiedener Optimierungskriterien, der Aufnahme weiterer Aktien in das Portfolio zur besseren Diversifizierung und der Durchführung umfangreicher Backtestings. Sie schlagen vor, das Leseuniversum zu erweitern und die Auswirkungen von Transaktionskosten auf die Portfolio-Performance zu diskutieren.
Während der Frage-und-Antwort-Runde beantwortet Celestog Fragen des Publikums. Ein Teilnehmer fragt nach der Performance des gleichgewichteten Portfolios im Vergleich zum optimierten Portfolio. Celestog erklärt, dass das gleichgewichtete Portfolio im Allgemeinen eine gute Leistung erbrachte, das optimierte Portfolio jedoch höhere Renditen erbrachte, was die Wirksamkeit von Portfoliooptimierungstechniken demonstriert. Ein anderer Teilnehmer erkundigt sich nach den Auswirkungen der Transaktionskosten auf die Wertentwicklung des Portfolios. Celestog erkennt an, dass Transaktionskosten einen erheblichen Einfluss haben können und schlägt vor, sie in den Optimierungsprozess einzubeziehen, um eine genauere Darstellung der tatsächlichen Leistung zu erhalten. Er weist auch darauf hin, wie wichtig es ist, Slippage in Live-Handelsszenarien zu berücksichtigen, und rät den Teilnehmern, ihre Strategien gründlich anhand historischer Daten zu testen, bevor sie sie im Live-Handel umsetzen.
Insgesamt beleuchten die Präsentationen des Webinars die praktischen Aspekte der Portfolio-Asset-Allokation mithilfe von maschinellem Lernen und Optimierungstechniken für Dividendenaktien. Die Redner betonten die Bedeutung der Datenvorverarbeitung, Funktionsauswahl, Neuausrichtung und regelmäßigen Überwachung, um erfolgreiche Ergebnisse zu erzielen. Sie betonten auch die Notwendigkeit kontinuierlichen Lernens, Anpassungsfähigkeit und der Erforschung verschiedener Strategien, um die dynamische Natur der Finanzmärkte zu bewältigen. Das Publikum gewann wertvolle Einblicke in die Herausforderungen, Techniken und potenziellen Vorteile des Einsatzes von maschinellem Lernen im Portfoliomanagement.