Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ernest Chan (Predictnow.ai) – „Wie man maschinelles Lernen zur Optimierung nutzt“
Ernest Chan (Predictnow.ai) – „Wie man maschinelles Lernen zur Optimierung nutzt“
Ernest Chan, Mitbegründer von Predictnow.ai, befasst sich mit den Herausforderungen, denen sich traditionelle Portfoliooptimierungsmethoden im Umgang mit Regimeänderungen auf Märkten gegenübersehen. Er schlägt vor, dass maschinelles Lernen eine Lösung für dieses Problem bieten kann. Chan erklärt, wie sein Team Techniken des maschinellen Lernens zur Portfoliooptimierung anwendet, wobei der Schwerpunkt auf der Integration von Zeitreihenfunktionen liegt, die verschiedene finanzielle Aspekte wie Volatilität, Preise und Zinssätze messen. Durch die Kombination des Farmer-French-Drei-Faktoren-Modells mit dem Verständnis, dass das Ranking wichtiger ist als die Vorhersage, zielen sie darauf ab, eine optimale Portfoliooptimierung zu erreichen.
Anschließend stellt Chan konkrete Ergebnisse der Leistung des CBO-Modells vor und liefert Beispiele von Kunden, die mithilfe dieses Ansatzes eine Verbesserung der Leistung ihres Portfolios festgestellt haben. Er betont, dass Modelle des maschinellen Lernens die Fähigkeit haben, sich an Regimeänderungen anzupassen, sodass sie effektiv auf sich entwickelnde Marktbedingungen reagieren können. Darüber hinaus erörtert er, wie die Renditen für den S&P 500 Index und seine Komponenten mithilfe eines Algorithmus für maschinelles Lernen berechnet werden können, der Zeitreihenfunktionen nutzt.
Darüber hinaus hebt Chan den Ensemble-Ansatz seines Teams zur Optimierung und Spekulation hervor. Er erwähnt ihre „geheime Soße“, die den Bedarf an umfangreicher Rechenleistung überflüssig macht. Anstatt einem zweistufigen Prozess der Vorhersage von Regimen und der Konditionierung ihrer Renditeverteilung zu folgen, nutzen sie visuelle Faktoren, um die Performance des Portfolios direkt vorherzusagen. Darüber hinaus stellt Chan klar, dass durch die Einbeziehung eines erheblichen Teils der Trainingsstichprobe in ihren Algorithmus die erwartete Rendite mit früheren Ergebnissen übereinstimmt.
Dr. Ernest Chan erläutert die Herausforderungen, mit denen traditionelle Portfoliooptimierungsmethoden angesichts von Regimewechseln konfrontiert sind, und betont die Rolle des maschinellen Lernens bei der Bewältigung dieses Problems. Er erörtert die Anwendung maschineller Lerntechniken, die Bedeutung von Zeitreihenmerkmalen und die Bedeutung des Rankings für die Erzielung einer optimalen Portfoliooptimierung. Er teilt konkrete Ergebnisse und Erfolgsgeschichten von Kunden und hebt die Anpassungsfähigkeit von Modellen des maschinellen Lernens an sich ändernde Marktbedingungen hervor. Chan bietet außerdem Einblicke in die Berechnung von Renditen mithilfe von Algorithmen für maschinelles Lernen und beleuchtet ihren Ensemble-Ansatz und ihre einzigartige Methodik.
Finanzielles maschinelles Lernen – die Perspektive eines Praktikers von Dr. Ernest Chan
Finanzielles maschinelles Lernen – die Perspektive eines Praktikers von Dr. Ernest Chan
In diesem informativen Video befasst sich Dr. Ernest Chan mit dem Bereich des maschinellen Lernens im Finanzbereich, untersucht mehrere Schlüsselaspekte und beleuchtet wichtige Überlegungen. Er betont die Bedeutung der Vermeidung von Überanpassungen und plädiert für Transparenz in Modellen. Darüber hinaus hebt Dr. Chan die Vorteile der Verwendung nichtlinearer Modelle zur Vorhersage des Marktverhaltens hervor. Allerdings geht er auch auf die Grenzen des maschinellen Lernens im Finanzmarkt ein, etwa die Reflexivität und die sich ständig ändernde Dynamik des Marktes.
Ein entscheidender Punkt, den Dr. Chan hervorhebt, ist die Bedeutung der Fachkompetenz in der Finanzdatenwissenschaft. Er unterstreicht die Notwendigkeit einer Merkmalsauswahl, um ein besseres Verständnis der wesentlichen Variablen zu erlangen, die die Schlussfolgerungen eines Modells beeinflussen. Durch die Identifizierung dieser wichtigen Eingaben können Anleger und Händler Einblicke in ihre Verluste gewinnen und verstehen, warum bestimmte Entscheidungen getroffen wurden.
Dr. Chan geht auch auf die Anwendung von maschinellem Lernen im Risikomanagement und bei der Kapitalallokation ein. Er schlägt vor, einen Nischenmarkt zu finden und den direkten Wettbewerb mit gut finanzierten Organisationen zu vermeiden. Auf diese Weise können Praktiker ihre Erfolgschancen in diesen Bereichen erhöhen.
Im gesamten Video hebt Dr. Chan die Vorteile und Herausforderungen hervor, die mit verschiedenen Modellen und Strategien verbunden sind. Er weist darauf hin, dass traditionelle quantitative Strategien wie lineare Modelle zwar leicht zu verstehen und weniger anfällig für Überanpassungen sind, sie jedoch mit der nichtlinearen Abhängigkeit zwischen Prädiktoren zu kämpfen haben. Im Gegensatz dazu zeichnen sich Modelle des maschinellen Lernens durch den Umgang mit nichtlinearen Beziehungen aus, ihre Komplexität und Undurchsichtigkeit kann jedoch zu Herausforderungen bei der Interpretation ihrer Ergebnisse und der Bewertung der statistischen Signifikanz führen.
Dr. Chan erörtert auch die Grenzen des Einsatzes von maschinellem Lernen zur Vorhersage des Finanzmarkts. Er betont, dass sich der Markt ständig weiterentwickelt, was es schwierig macht, genaue Vorhersagen zu treffen. Er schlägt jedoch vor, dass maschinelles Lernen bei der Vorhersage privater Informationen erfolgreich sein kann, beispielsweise bei Handelsstrategien, bei denen ein Wettbewerb mit identischen Parametern weniger wahrscheinlich ist.
Darüber hinaus geht Dr. Chan auf die Einbindung grundlegender Daten, einschließlich kategorialer Daten, in Modelle des maschinellen Lernens ein. Er weist darauf hin, dass Modelle des maschinellen Lernens gegenüber linearen Regressionsmodellen einen Vorteil haben, wenn es darum geht, sowohl realwertige als auch kategoriale Daten zu verarbeiten. Er warnt jedoch davor, sich ausschließlich auf maschinelles Lernen zu verlassen, und betont, dass fundierte Domänenkenntnisse nach wie vor entscheidend für die Erstellung effektiver Funktionen und die genaue Interpretation von Daten sind.
Im Bereich der Kapitalallokation hebt Dr. Chan hervor, wie maschinelles Lernen anspruchsvollere erwartete Renditen liefern kann und die Verwendung vergangener Leistungen als alleiniger Indikator für zukünftigen Erfolg in Frage stellt. Er erörtert auch die Nuancen des Marktverständnisses, die maschinelles Lernen bieten kann, wobei die Wahrscheinlichkeiten im Gegensatz zu statischen Wahrscheinlichkeitsverteilungen aus der klassischen Statistik täglich variieren.
Dr. Chan geht abschließend auf die Grenzen von Deep Learning bei der Erstellung vielfältiger Querschnittsmerkmale ein, die Domänenexpertise erfordern. Er teilt seine Gedanken zur Anwendbarkeit des Reinforcement Learning in Finanzmodellen und weist auf dessen potenzielle Wirksamkeit bei hohen Frequenzen, aber auf Einschränkungen bei längeren Zeitskalen hin.
Für diejenigen, die sich weiter mit maschinellem Lernen im Finanzbereich befassen möchten, empfiehlt Dr. Chan sein Unternehmen PredictNow.ai als wertvolle Ressource für Fachwissen zum maschinellen Lernen im Finanzbereich ohne Code.
Handeln mit Deep Reinforcement Learning | Dr. Thomas Starke
Handeln mit Deep Reinforcement Learning | Dr. Thomas Starke
Dr. Thomas Starke, ein Experte auf dem Gebiet des Deep Reinforcement Learning für den Handel, hielt einen aufschlussreichen Vortrag und beteiligte sich an einer Frage-und-Antwort-Runde mit dem Publikum. Das Folgende ist eine ausführliche Zusammenfassung seines Vortrags:
Dr. Starke führte zunächst Deep Reinforcement Learning für den Handel ein und betonte dessen Fähigkeit, Maschinen in die Lage zu versetzen, Aufgaben ohne direkte Aufsicht zu lösen. Er nutzte die Analogie eines maschinellen Lernens, um ein Computerspiel zu spielen, bei dem es lernt, Entscheidungen auf der Grundlage dessen zu treffen, was es auf dem Bildschirm sieht, und auf der Grundlage seiner Entscheidungskette Erfolg oder Misserfolg erzielt.
Anschließend erörterte er das Konzept eines Markov-Entscheidungsprozesses im Handel, bei dem Zustände mit Marktparametern verknüpft sind und Aktionen den Prozess von einem Zustand in einen anderen überführen. Das Ziel besteht darin, die erwartete Belohnung angesichts einer bestimmten Richtlinie und eines bestimmten Staates zu maximieren. Marktparameter sind entscheidend, um der Maschine dabei zu helfen, fundierte Entscheidungen über die zu ergreifenden Maßnahmen zu treffen.
Der Entscheidungsprozess im Handel umfasst die Entscheidung, ob gekauft, verkauft oder gehalten werden soll, basierend auf verschiedenen Indikatoren, die den Zustand des Systems informieren. Dr. Starke betonte, wie wichtig es sei, sich nicht ausschließlich auf unmittelbare Gewinn- oder Verlustkennzeichnungen für jeden Staat zu verlassen, da dies zu falschen Vorhersagen führen könne. Stattdessen muss die Maschine verstehen, wann sie in einem Trade bleiben muss, selbst wenn sie zunächst gegen sie verstößt, und vor dem Ausstieg darauf warten, dass der Trade wieder zur Durchschnittslinie zurückkehrt.
Um der Schwierigkeit zu begegnen, jeden Schritt im Gewinn und Verlust eines Handels zu kennzeichnen, führte Dr. Starke die rückwirkende Kennzeichnung ein. Dieser Ansatz verwendet die Bellman-Gleichung, um jeder Aktion und jedem Zustand einen Wert ungleich Null zuzuweisen, auch wenn dies nicht zu einem unmittelbaren Gewinn führt. Dadurch besteht die Möglichkeit einer Rückkehr zum Mittelwert und einem eventuellen Gewinn.
Deep Reinforcement Learning kann dabei helfen, Handelsentscheidungen auf der Grundlage zukünftiger Ergebnisse zu treffen. Herkömmliche Reinforcement-Learning-Methoden erstellen Tabellen auf der Grundlage vergangener Erfahrungen, doch im Handel ist die Zahl der Zustände und Einflüsse enorm. Um diese Komplexität zu bewältigen, nutzt Deep Reinforcement Learning neuronale Netze, um diese Tabellen anzunähern, sodass es ohne die Erstellung einer riesigen Tabelle möglich ist. Dr. Starke erörterte, wie wichtig es ist, die richtige Belohnungsfunktion und die richtigen Eingaben zu finden, um den Zustand zu definieren und letztendlich eine bessere Entscheidungsfindung für den Handel zu ermöglichen.
Die Bedeutung von Eingaben im Handel wurde hervorgehoben und betont, dass sie einen prädiktiven Wert haben müssen. Dr. Starke betonte, wie wichtig es ist, das System auf bekanntes Verhalten zu testen und basierend auf der gewählten Belohnungsfunktion den geeigneten Typ, die Größe und die Kostenfunktion des neuronalen Netzwerks auszuwählen. Er erklärte, wie Gamification im Handel eingesetzt wird, wo historische und aktuelle Preise, technische Sicherheitsdaten und alternative Datenquellen den Zustand bilden und die Belohnung der Gewinn und Verlust (GuV) des Handels ist. Die Maschine kennzeichnet Beobachtungen rückwirkend mithilfe der Bellman-Gleichung und aktualisiert kontinuierlich durch neuronale Netze angenäherte Tabellen, um die Entscheidungsfindung zu verbessern.
In Bezug auf das Training mit Verstärkungslernen erörterte Dr. Starke verschiedene Möglichkeiten zur Strukturierung der Preisreihe, einschließlich des zufälligen Ein- und Ausstiegs an verschiedenen Punkten. Er ging auch auf die Herausforderung ein, eine Belohnungsfunktion zu entwerfen, und lieferte Beispiele wie reine prozentuale Gewinn- und Verlustrechnung, Gewinn pro Tick und die Sharpe-Ratio sowie Methoden zur Vermeidung langer Transportzeiten oder Drawdowns.
In Bezug auf Eingaben für den Handel erwähnte Dr. Starke zahlreiche Optionen, darunter Eröffnungs-Hoch-Tief-Schluss- und Volumenwerte, Candlestick-Muster, technische Indikatoren wie der Relative-Stärke-Index, Tages-/Wochen-/Jahreszeit sowie die Eingabe von Preisen und technischen Daten Indikatoren für andere Instrumente. Auch alternative Datenquellen wie Sentiment- oder Satellitenbilder können berücksichtigt werden. Der Schlüssel besteht darin, diese Eingaben in einen komplexen Zustand zu versetzen, ähnlich wie Eingabemerkmale in Computerspielen zur Entscheidungsfindung verwendet werden.
Dr. Starke erläuterte die Testphase, die der Verstärkungslerner durchlaufen muss, bevor er für den Handel eingesetzt wird. Er skizzierte verschiedene Tests, darunter saubere Sinuswellen, Trendkurven, zufällige Reihen ohne Struktur, verschiedene Arten von Ordnungskorrelationen, Rauschen in sauberen Testkurven und wiederkehrende Muster. Mithilfe dieser Tests lässt sich feststellen, ob die Maschine dauerhaft Gewinne erwirtschaftet, und etwaige Fehler in der Codierung identifizieren. Dr. Starke erörterte auch die verschiedenen Arten von verwendeten neuronalen Netzen, wie z. B. Standard-, Faltungs- und Langzeitgedächtnis (LSTM). Er äußerte eine Präferenz für einfachere neuronale Netze, die seine Anforderungen erfüllen, ohne übermäßigen Rechenaufwand zu erfordern.
Anschließend befasste sich Dr. Starke mit den Herausforderungen, die der Einsatz von Reinforcement Learning für den Handel mit sich bringt. Er erkannte die Schwierigkeit an, zwischen Signal und Rauschen zu unterscheiden, insbesondere bei verrauschten Finanzzeitreihen. Er betonte auch, wie schwierig es ist, sich durch verstärktes Lernen an Veränderungen im Marktverhalten anzupassen, was es zu einer Herausforderung macht, neue Verhaltensweisen zu erlernen. Darüber hinaus erwähnte er, dass Reinforcement Learning zwar eine erhebliche Menge an Trainingsdaten erfordert, Marktdaten jedoch oft spärlich sind. Eine Überanpassung ist ein weiteres Problem, da Reinforcement Learning tendenziell auf grundlegende Marktmuster einwirkt und leicht zu einer Überanpassung führt. Der Aufbau komplexerer neuronaler Netze kann dieses Problem abmildern, ist jedoch eine zeitaufwändige Aufgabe. Insgesamt betonte Dr. Starke, dass Reinforcement Learning keine garantierte Lösung für profitable Ergebnisse ist und dass Markterfahrung und domänenspezifisches Wissen von entscheidender Bedeutung sind, um im Handel erfolgreich zu sein.
Während der Frage-und-Antwort-Runde ging Dr. Starke auf verschiedene Fragen im Zusammenhang mit dem Handel mit Deep Reinforcement Learning ein. Er stellte klar, dass die Bellman-Gleichung keinen Look-Ahead-Bias einführt, und erörterte nach sorgfältiger Analyse die mögliche Verwendung technischer Indikatoren als Inputs. Er untersuchte auch die Möglichkeit, Satellitenbilder zur Vorhersage von Aktienkursen zu nutzen, und erklärte, dass Verstärkungshandel in kleinen Zeitrahmen durchgeführt werden kann, abhängig von der Berechnungszeit des neuronalen Netzwerks. Er warnte davor, dass Verstärkungshandelsalgorithmen empfindlich auf Marktanomalien reagieren, und erklärte, warum das Training zufälliger Entscheidungsbäume mithilfe von Verstärkungslernen keine aussagekräftigen Ergebnisse liefert.
Dr. Starke empfahl aufgrund ihrer Eignung für das Problem die Verwendung neuronaler Netze für den Handel anstelle von Entscheidungsbäumen oder Support-Vektor-Maschinen. Er betonte, wie wichtig es sei, die Verlustfunktion basierend auf der verwendeten Belohnungsfunktion abzustimmen. Während einige Versuche unternommen wurden, Reinforcement Learning auf den Hochfrequenzhandel anzuwenden, betonte Dr. Starke die Herausforderung langsamer neuronaler Netze, denen es an Reaktionsfähigkeit auf Echtzeitmärkten mangelt. Er empfahl Einzelpersonen, die eine Karriere als Handelsvertreter in der Finanzbranche anstrebten, sich Marktkenntnisse anzueignen, tatsächliche Geschäfte zu tätigen und aus den Erfahrungen zu lernen. Abschließend erörterte er die Herausforderungen der Kombination neuronaler Netze und des Optionshandels und erkannte die Komplexität der Aufgabe.
Abschließend lieferte Dr. Thomas Starke wertvolle Einblicke in den Handel mit Deep Reinforcement Learning. Er behandelte Themen wie den Entscheidungsprozess im Handel, rückwirkende Kennzeichnung, die Bellman-Gleichung, die Bedeutung von Eingaben, Testphasen und Herausforderungen im Zusammenhang mit Reinforcement Learning für den Handel. Durch seinen Vortrag und die Frage-und-Antwort-Runde bot Dr. Starke Anleitung und praktische Überlegungen zur Nutzung von Deep Reinforcement Learning auf den Finanzmärkten.
Harrison Waldon (UT Austin): „The Algorithmic Learning Equations“
Harrison Waldon (UT Austin): „The Algorithmic Learning Equations“
Harrison Waldon, ein Forscher von der UT Austin, stellte seine Arbeit über algorithmische Kollusion auf Finanzmärkten vor und konzentrierte sich dabei auf die Interaktion und potenzielle Kollusion von Reinforcement Learning (RL)-Algorithmen. Er ging auf die Bedenken der Regulierungsbehörden hinsichtlich des autonomen algorithmischen Handels und seines Potenzials ein, die Preise durch Absprachen ohne explizite Kommunikation in die Höhe zu treiben.
Waldons Forschung zielte darauf ab, das Verhalten von RL-Algorithmen im Finanzumfeld zu verstehen und festzustellen, ob sie lernen können, Absprachen zu treffen. Er nutzte algorithmische Lerngleichungen (ALEs), um ein System gewöhnlicher Differentialgleichungen (ODEs) abzuleiten, die die Entwicklung von Algorithmen unter bestimmten Bedingungen annähern. Diese ALEs waren in der Lage, kollusives Verhalten in Q-Learning-Algorithmen zu validieren und lieferten eine gute Annäherung an die Algorithmenentwicklung, was eine große Anziehungskraft für kollusive Ergebnisse demonstrierte.
Es gibt jedoch Herausforderungen bei der Berechnung der stationären Verteilung und der Unterscheidung zwischen echter Absprache und rationalem selbsterhaltendem Verhalten. Bei der Bestimmung der stationären Verteilung treten numerische Schwierigkeiten auf, und es bleibt eine Herausforderung, echte Absprachen von eigennützigem Verhalten zu unterscheiden.
Waldon betonte die Grenzen des statischen Spielgleichgewichts bei der Anwendung auf dynamische Interaktionen und betonte die Notwendigkeit eines umfassenden Ansatzes zur Verhaltensregulierung. Kollusives Verhalten, das durch Algorithmen ohne direkte Kommunikation zwischen den Parteien ermöglicht wird, erfordert sorgfältige Überlegungen. Der Vortrag endete damit, dass Waldon den Teilnehmern seinen Dank ausdrückte und damit den Abschluss der Frühjahrssemesterreihe markierte.
Irene Aldridge (AbleBlox und AbleMarkets): „Krypto-Ökosystem und AMM-Design“
Irene Aldridge (AbleBlox und AbleMarkets): „Krypto-Ökosystem und AMM-Design“
Irene Aldridge, Gründerin und Geschäftsführerin von AbleMarkets, befasst sich mit verschiedenen Aspekten der Blockchain-Technologie, dem automatisierten Market Making (AMM) und der Konvergenz traditioneller Märkte mit der Welt der AMMs. Sie betont die Bedeutung dieser Themen im Finanzwesen und untersucht mögliche Herausforderungen und damit verbundene Lösungen.
Aldridge gibt zunächst einen Überblick über ihren Hintergrund in der Finanzbranche und ihr Fachwissen im Bereich Mikrostruktur, das sich auf das Verständnis von Marktvorgängen konzentriert. Sie hebt die zunehmende Akzeptanz automatisierter Market-Making-Modelle hervor, die zunächst auf dem Kryptomarkt vorherrschend waren, sich aber mittlerweile auf traditionelle Märkte ausgeweitet haben. Sie skizziert die Struktur ihrer Präsentation, die einführende Blockchain-Konzepte, die Anwendung von Blockchain in Finanzen und Programmierung sowie reale Fallstudien zum Market Making und seinen Auswirkungen auf traditionelle Märkte umfasst.
Aldridge erforscht die Blockchain-Technologie und beschreibt sie als eine fortschrittliche Datenbank, in der jede Zeile eine kryptografische Zusammenfassung der vorherigen Zeile enthält und so die Datenintegrität gewährleistet. Sie erklärt den Mining-Prozess der Blockchain, bei dem vorgeschlagene Inhalte validiert und der Kette hinzugefügt werden, was zu mehr Transparenz und Dezentralisierung bei Papierkram und Zahlungssystemen führt.
Aldridge erörtert den Wandel hin zur Dezentralisierung im Krypto-Ökosystem und hebt den Kompromiss zwischen Datenschutz und der Robustheit mehrerer Kopien der Datenbank auf Servern hervor. Sie erklärt den Blockchain-Prozess, von der Definition von Blöcken und der Erstellung kryptografischer Signaturen bis hin zu den Kerninnovationen Proof of Work und Mining, die Sicherheit vor Hacking-Versuchen gewährleisten.
Aldridge erkennt jedoch die Herausforderungen an, die mit dem Proof-of-Work-Mining-System verbunden sind, darunter die steigenden Kosten des Bergbaus, eine sinkende Zahl von Bergleuten und potenzielle Schwachstellen. Sie hebt alternative Lösungen hervor, wie die Blockaggregation von Ethereum und die Beseitigung von Rätseln durch Coinbase für das Mining.
Der Redner befasst sich dann mit dem Stakeholder-Einsatz im Krypto-Ökosystem, bei dem Stakeholder ihre Gelder zur Unterstützung des Netzwerkbetriebs bereitstellen. Sie erkennt das potenzielle Problem an, dass Krypto-Oligarchen den Markt manipulieren, und erklärt, wie Off-Chain-Validierung und automatisiertes Market-Making implementiert wurden, um diesem Problem entgegenzuwirken. Aldridge betont, wie wichtig es ist, diese Konzepte zu verstehen, um die Bedeutung des automatisierten Market Making für die Verhinderung von Manipulationen auf dem Kryptomarkt zu verstehen.
Aldridge befasst sich mit den Prinzipien hinter Automated Market Makers (AMMs) und betont deren revolutionären Einfluss auf den Handel mit Kryptowährungen. Sie erklärt, wie AMM-Kurven, die von liquiditätsbezogenen Invarianten geprägt sind, Preise basierend auf dem verbleibenden Bestand im Liquiditätspool bestimmen. Sie hebt die Vorteile von AMMs hervor, einschließlich 24/7-Liquidität, formelbasierter Slippage-Schätzung und Bestimmung des beizulegenden Zeitwerts durch konvexe Kurven. Sie erwähnt jedoch auch, dass AMMs unter volatilen Bedingungen Verluste erleiden können, was zur Einführung von Transaktionsgebühren führt.
Aldridge vergleicht AMMs mit traditionellen Märkten und erörtert die Vorteile der automatisierten Marktgestaltung, wie z. B. kontinuierliche Liquidität, vorhersehbare Slippage und Ermittlung des beizulegenden Zeitwerts. Sie erklärt die von UniSwap angewandte Methode des kontinuierlichen Produktmarketings und veranschaulicht, wie Ausführungsmakler Plattformen für Liquidität und Ausführung auf der Grundlage parametrisierter Daten auswählen können.
Der Referent geht auf die Berechnung von Volumenänderungen und die Unterscheidung zwischen öffentlichen und privaten Liquiditätspools ein. Sie präsentiert empirische Beispiele mit Bitcoin und Ethereum von verschiedenen Börsen, weist auf Unterschiede in ihren Kurven hin und weist auf mögliche Bedenken bei bestimmten Plattformen hin.
Aldridge betont, wie wichtig es ist, AMM-Kurven mit konvexen Formen zu entwerfen, um Marktstabilität zu gewährleisten. Sie erklärt die Rolle von Liquiditätsanbietern und Händlern im System und wie sie von Transaktionsgebühren profitieren. Sie weist auch auf die Möglichkeit hin, dass AMM-Systeme in traditionellen Märkten eingesetzt werden könnten, was dazu führt, dass ihre Anwendung auf Vermögenswerte wie IBM-Aktien in Betracht gezogen wird.
Aldridge untersucht die Konvergenz traditioneller Märkte mit automatisiertem Market Making und stellt fest, dass traditionelle Market Maker bereits ähnliche Systeme implementieren. Sie hebt die erwarteten Veränderungen bei Marktinteraktionen, Handelsstrategien, Ausführungsmethoden und Transparenz hervor. Der Einfluss automatisierter Market Maker auf die Mikrostruktur in den Märkten wird ebenfalls diskutiert.
Aldridge geht auf die Machbarkeit der Implementierung automatisierter Liquidität in 24/7-Handelsumgebungen wie dem Kryptomarkt ein und erklärt, dass automatisiertes Market-Making die mit traditionellen Market-Making-Methoden verbundenen Risiken beseitigen kann und dass die Technologie leicht verfügbar ist. Sie warnt jedoch davor, dass nicht alle Krypto-Börsen automatisiertes Market-Making nutzen, und betont den Forschungsbedarf, um Risikomanagement und externe Effekte zu berücksichtigen. Aldridge weist darauf hin, dass die automatisierte Market-Making-Technologie etwa zeitgleich mit Kryptowährungen wie Bitcoin im Jahr 2002 entstand.
Auf die Frage nach dem potenziellen unfairen Vorteil, den automatisierte Market-Making-Händler beim Zugriff auf private Informationen haben, räumt Aldridge ein, dass dies ein Problem darstellt. Sie schlägt jedoch vor, dass das Durchsuchen und Quantifizieren der automatisierten Market-Making-Kurve über verschiedene Plattformen hinweg dazu beitragen kann, dieses Problem zu mildern. Sie weist darauf hin, dass Bergleute einen Anreiz haben, ihre Arbeit fortzusetzen, da sie diejenigen sind, die vom Zugriff auf und der Validierung von Auftragsblöcken profitieren. Dennoch wird es ohne einen privaten Anreiz immer schwieriger, in diesem Bereich Gewinne zu erwirtschaften, was zur Bildung von Oligopolen führt. Aldridge schlägt vor, dass Versicherungen als natürlicher Anreiz für Bergleute dienen könnten, nahezu umsonst zu arbeiten. Allerdings betrachten Versicherungsunternehmen Blockchain als große Bedrohung für ihre Branche, was zu Widerstand gegen solche Systemdesigns führt. Sie geht auch auf die Möglichkeit von Betrugsversuchen ein und weist auf mögliche Manipulationen in der IBM-Kurve hin.
Im Zusammenhang mit zentralisierten Limit-Orderbüchern erklärt Aldridge, wie Marktteilnehmer automatisierte Market-Making-Modelle wie AMMs nutzen, die auf kostengünstige und automatisierte Weise Liquidität bereitstellen und möglicherweise zu Gewinnen führen. Die Unterscheidung zwischen Händlern, die AMMs verwenden, und Händlern, die manuell Limit-Orders aufgeben, bleibt jedoch eine Herausforderung. Aldridge schlägt vor, dass die Identifizierung böswilliger Benutzer durch mikrostrukturelle Datenanalyse eine mögliche Lösung darstellen könnte. Sie glaubt, dass ein effizienteres und schlankeres Modell entstehen wird, wenn AMMs weiterhin den Markt dominieren.
Zusammenfassend deckt die Diskussion von Irene Aldridge verschiedene Aspekte der Blockchain-Technologie, der automatisierten Marktgestaltung und der Konvergenz traditioneller Märkte mit der AMM-Welt ab. Sie erforscht die Grundlagen der Blockchain, diskutiert die Herausforderungen und möglichen Lösungen im Zusammenhang mit Proof-of-Work-Mining-Systemen und hebt die Vorteile von AMMs gegenüber traditionellen Märkten hervor. Aldridge geht auch auf Bedenken hinsichtlich der Machbarkeit der Implementierung automatisierter Liquidität, des Problems des Zugriffs automatisierter Market-Making-Händler auf private Informationen und der möglichen Rolle von Versicherungen als Anreiz für Bergleute ein. Durch ihre Erkenntnisse bietet sie wertvolle Perspektiven auf die aktuelle Landschaft und zukünftige Möglichkeiten in der Welt des Finanzwesens und des automatisierten Market Making.
Agostino Capponi (Kolumbien): „Mindern private Transaktionspools das Frontrunning-Risiko?“
Agostino Capponi (Kolumbien): „Mindern private Transaktionspools das Frontrunning-Risiko?“
Agostino Capponi, ein Forscher der Columbia University, befasst sich intensiv mit der Frage des Front-Runnings bei dezentralen Börsen und schlägt private Transaktionspools als mögliche Lösung vor. Diese privaten Pools arbeiten außerhalb der Kette und getrennt vom öffentlichen Pool, um sicherzustellen, dass Validatoren, die sich dazu verpflichten, sich nicht an der Spitze zu engagieren, mit ihnen umgehen. Capponi räumt jedoch ein, dass die Verwendung privater Pools ein Ausführungsrisiko birgt, da nicht alle Validatoren am privaten Pool teilnehmen, was bedeutet, dass die Möglichkeit besteht, dass Transaktionen unbemerkt bleiben und nicht ausgeführt werden. Es ist wichtig zu beachten, dass die Einführung privater Pools nicht unbedingt die für die Ausführung erforderliche Mindestprioritätsgebühr senken muss. Darüber hinaus weist Capponi darauf hin, dass der Wettbewerb zwischen vordergründigen Angreifern den Validatoren durch den maximal extrahierbaren Wert (MEV) zugute kommt. Letztendlich können private Pools zwar das Front-Running-Risiko mindern, sie können jedoch die für die Ausführung erforderliche Gebühr erhöhen, was zu Ineffizienzen bei der Zuteilung führt.
Capponi betont den Zusammenhang zwischen dem Anteil der über private Pools geleiteten Transaktionen und der Wahrscheinlichkeit, an vorderster Front zu stehen, was eine optimale Zuteilung erschwert. Er untersucht außerdem verschiedene Arten von Front-Running-Angriffen, darunter Unterdrückungs- und Verdrängungsangriffe, und präsentiert Daten, die die erheblichen Verluste zeigen, die durch Front-Running entstehen. Um diesen Risiken zu begegnen, schlägt Capponi vor, Benutzer über den Transaktionszeitpunkt aufzuklären und die Transaktionsvalidierung deterministischer zu gestalten, um ein gerechteres System zu schaffen.
Die Diskussion berührt die Dynamik privater Transaktionspools, die Herausforderungen der Einführung und die damit verbundenen potenziellen Kompromisse. Capponi erklärt, wie private Pools Schutz vor Frontrunning bieten, weist jedoch darauf hin, dass ihre Wirksamkeit von der Anzahl der am privaten Pool teilnehmenden Validatoren abhängt. Darüber hinaus geht er auf das Problem ein, dass Validatoren aufgrund des MEV-Verlusts keine privaten Pools einführen, und schlägt mögliche Lösungen wie Benutzersubventionen vor, um Anreize für deren Einführung zu schaffen.
Während private Transaktionspools die Front-Running-Risiken bis zu einem gewissen Grad abmildern können, betont Capponi, dass sie nicht narrensicher sind und möglicherweise keine optimale Allokation erreichen. Die Komplexität ergibt sich aus Faktoren wie dem Wettbewerb zwischen Angreifern, der Akzeptanzrate von Validatoren in privaten Pools und den daraus resultierenden Auswirkungen auf die Ausführungsgebühren. Die Diskussion wirft wichtige Überlegungen für die Blockchain-Community auf, wenn es darum geht, aktuelle Risiken anzugehen und ein faires und effizientes dezentrales Austauschumfeld sicherzustellen.
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
Yuyu Fan, a researcher at Alliance Bernstein, provides valuable insights into the application of natural language processing (NLP) and machine learning in analyzing earnings call transcripts and generating effective trading strategies.
Fan's team employed various techniques, including sentiment analysis, accounting analysis, and readability scoring, to screen over 200 features extracted from earnings call transcripts. They utilized advanced models like BERT (Bidirectional Encoder Representations from Transformers) to evaluate the sentiment of speakers, comparing the sentiment of CEOs with that of analysts. Interestingly, they found that analyst sentiment tends to be more reliable.
The analysis was conducted on both individual sections and combined sections of the transcripts, with the team discovering that a context-driven approach outperforms a naive approach based on background words. The sentiment signal, particularly for U.S. small-cap companies, performed well and was recommended by the investment teams.
In explaining the methodology, Fan describes how their team used quantile screening and backtesting to evaluate the performance of different features. They examined sentiment scores based on dictionary-based approaches as well as context-based approaches using BERT. The team also delved into readability scores, which measure the ease of understanding a text, focusing on CEO comments to identify potential correlations with company performance.
Fan provides insights into the working of BERT, highlighting its bi-directional encoder representation that captures contextual information from the left and right of a given word. The team fine-tuned the BERT model for sentiment analysis by adding sentiment labels through self-labeling and external datasets. Their findings indicated that BERT-based sentiment analysis outperformed dictionary-based sentiment analysis, as demonstrated by examples from earnings call transcripts.
Furthermore, Fan discusses the challenges of setting accuracy thresholds for sentiment analysis and emphasizes that practical performance may not significantly differ between accuracy levels. She highlights the success of their sentiment signal on U.S. small-cap companies, which led to its recommendation by the investment teams. Fan also mentions the publication of a paper detailing NLP features that could serve as quant signals for creating efficient trading strategies, with ongoing efforts to enhance the model through data augmentation.
The discussion expands to cover the correlation between NLP features and traditional fundamental and quantitative features, highlighting the moderate correlation observed for readability and sentiment accounting. Fan clarifies their return methodology, including the selection of companies based on the latest available information before rebalancing.
Towards the end, Fan touches upon topics such as CO2 arbitrage, the difference between BERT and FinBERT, and the development of a financial usage model for BERT specifically tailored to finance-related filings, earnings, and news. The process of converting audio data into transcripts for analysis is also mentioned, with the use of transcription services and vendor solutions.
In summary, Yuyu Fan's research showcases the power of NLP and machine learning techniques in analyzing earnings call transcripts. The application of sentiment analysis, accounting analysis, and readability scoring, along with the utilization of advanced models like BERT, enables the generation of efficient trading strategies. The context-driven approach outperforms naive approaches, and the sentiment signal proves valuable, particularly for U.S. small-cap companies, as recommended by Alliance Bernstein's investment teams.
Dr. Kevin Webster: „Mehr für weniger bekommen – Bessere A/B-Tests durch kausale Regularisierung“
Dr. Kevin Webster: „Mehr für weniger bekommen – Bessere A/B-Tests durch kausale Regularisierung“
In diesem Video befasst sich Dr. Kevin Webster mit den Herausforderungen, die mit Handelsexperimenten und kausalem maschinellen Lernen verbunden sind, und geht dabei auf verschiedene Schlüsselthemen ein. Ein wichtiges Problem, mit dem er sich befasst, ist die Prognoseverzerrung im Handel, bei der die beobachtete Rendite während eines Handels eine Kombination aus Preisauswirkungen und vorhergesagten Preisbewegungen ist. Um diese Tendenz abzumildern, schlägt Dr. Webster zwei Ansätze vor: die Verwendung randomisierter Handelsdaten und die Anwendung einer kausalen Regularisierung. Durch die Einbeziehung des Handelssignals, das einen Handel verursacht hat, in das Regressionsmodell können Verzerrungen beseitigt werden.
Dr. Webster stellt das Konzept eines Kausaldiagramms vor, das drei Variablen umfasst: das Alpha des Handels, die Größe des Handels und die Renditen während des Handels. Er behauptet, dass die genaue Schätzung der Preisauswirkungen ohne die Beobachtung von Alpha eine Herausforderung darstellt und dass traditionelle ökonometrische Techniken in dieser Hinsicht unzureichend sind. Er hebt die Grenzen randomisierter Handelsexperimente aufgrund ihrer begrenzten Größe und Dauer hervor und betont die Notwendigkeit einer sorgfältigen Experimentgestaltung und Kostenschätzung mithilfe von Simulatoren.
Um die Mängel der traditionellen Ökonometrie zu überwinden, plädiert Dr. Webster für eine kausale Regularisierung. Diese von Amazon abgeleitete Methode nutzt voreingenommene Daten zum Training und unvoreingenommene Daten zum Testen, was zu Schätzern mit geringer Voreingenommenheit und geringer Varianz führt. Es nutzt die Fülle der verfügbaren Unternehmensdaten und korrigiert Verzerrungen, um genauere Vorhersagen zu ermöglichen.
Die Schätzung des Alpha ohne Kenntnis seiner Auswirkungen stellt eine erhebliche Herausforderung dar, insbesondere wenn es den Handelsdaten an Vertrauenswürdigkeit mangelt. Dr. Webster schlägt die Verwendung einer zufälligen Übermittlung von Geschäften vor, um unvoreingenommene Daten zu erhalten, ohne sich auf Preistechnologie zu verlassen. Dieser Ansatz erfordert jedoch den Verzicht auf einen großen Teil der Trades, um ein Konfidenzintervall für Alpha festzulegen, was möglicherweise nicht praktikabel ist. Alternativ schlägt er vor, kausales maschinelles Lernen zu nutzen, um mit weniger Daten ähnliche Ergebnisse zu erzielen. Kausales maschinelles Lernen erweist sich bei Handelsanwendungen wie Transaktionskostenanalyse, Preisauswirkungsanalyse und Alpha-Forschung als besonders wertvoll und übertrifft die traditionelle Ökonometrie aufgrund der Verfügbarkeit umfassender, voreingenommener Handelsdaten.
Der Redner geht außerdem auf die Bedeutung der statistischen Analyse bei A/B-Tests ein und betont die Notwendigkeit, die Auswirkungen auf den Preis zu definieren und ein statistisches Maß zur Bekämpfung von Prognoseverzerrungen hinzuzufügen. Ohne diese Voreingenommenheit zu berücksichtigen, wird die Analyse subjektiv und hängt von der individuellen Interpretation ab. Dr. Webster erkennt die Herausforderungen an, die öffentliche Beobachtungsdaten mit sich bringen, und hebt die Erkenntnisse hervor, die aus interventionellen Daten gewonnen wurden. Obwohl die Beantwortung der Frage, welcher Ansatz gewählt werden soll, komplex ist, sind A/B-Tests in der Banken- und Maklerbranche nach wie vor eine gängige Praxis.
Abschließend erörtert Dr. Webster kurz die Beziehung zwischen Transferlernen und kausaler Regularisierung. Während es bei beiden darum geht, ein Modell anhand eines Datensatzes zu trainieren und auf einen anderen anzuwenden, fehlt beim Transferlernen eine kausale Interpretation. Die Analogie zwischen den beiden liegt in ihrem Validierungsprozess, wobei die Kreuzvalidierung eine zentrale Rolle spielt. Trotz ihrer mathematischen Ähnlichkeiten betont Dr. Webster die Neuheit der kausalen Interpretation des Ansatzes.
Dr. Kevin Webster: „Mehr für weniger bekommen – Bessere A/B-Tests durch kausale Regularisierung“
Dr. Kevin Webster: „Mehr für weniger bekommen – Bessere A/B-Tests durch kausale Regularisierung“
In diesem Video befasst sich Dr. Kevin Webster mit den Herausforderungen, die mit Handelsexperimenten und kausalem maschinellen Lernen verbunden sind, und geht dabei auf verschiedene Schlüsselthemen ein. Ein wichtiges Problem, mit dem er sich befasst, ist die Prognoseverzerrung im Handel, bei der die beobachtete Rendite während eines Handels eine Kombination aus Preisauswirkungen und vorhergesagten Preisbewegungen ist. Um diese Tendenz abzumildern, schlägt Dr. Webster zwei Ansätze vor: die Verwendung randomisierter Handelsdaten und die Anwendung einer kausalen Regularisierung. Durch die Einbeziehung des Handelssignals, das einen Handel verursacht hat, in das Regressionsmodell können Verzerrungen beseitigt werden.
Dr. Webster stellt das Konzept eines Kausaldiagramms vor, das drei Variablen umfasst: das Alpha des Handels, die Größe des Handels und die Renditen während des Handels. Er behauptet, dass die genaue Schätzung der Preisauswirkungen ohne die Beobachtung von Alpha eine Herausforderung darstellt und dass traditionelle ökonometrische Techniken in dieser Hinsicht unzureichend sind. Er hebt die Grenzen randomisierter Handelsexperimente aufgrund ihrer begrenzten Größe und Dauer hervor und betont die Notwendigkeit einer sorgfältigen Experimentgestaltung und Kostenschätzung mithilfe von Simulatoren.
Um die Mängel der traditionellen Ökonometrie zu überwinden, plädiert Dr. Webster für eine kausale Regularisierung. Diese von Amazon abgeleitete Methode nutzt voreingenommene Daten zum Training und unvoreingenommene Daten zum Testen, was zu Schätzern mit geringer Voreingenommenheit und geringer Varianz führt. Es nutzt die Fülle der verfügbaren Unternehmensdaten und korrigiert Verzerrungen, um genauere Vorhersagen zu ermöglichen.
Die Schätzung des Alpha ohne Kenntnis seiner Auswirkungen stellt eine erhebliche Herausforderung dar, insbesondere wenn es den Handelsdaten an Vertrauenswürdigkeit mangelt. Dr. Webster schlägt die Verwendung einer zufälligen Übermittlung von Geschäften vor, um unvoreingenommene Daten zu erhalten, ohne sich auf Preistechnologie zu verlassen. Dieser Ansatz erfordert jedoch den Verzicht auf einen großen Teil der Trades, um ein Konfidenzintervall für Alpha festzulegen, was möglicherweise nicht praktikabel ist. Alternativ schlägt er vor, kausales maschinelles Lernen zu nutzen, um mit weniger Daten ähnliche Ergebnisse zu erzielen. Kausales maschinelles Lernen erweist sich bei Handelsanwendungen wie Transaktionskostenanalyse, Preisauswirkungsanalyse und Alpha-Forschung als besonders wertvoll und übertrifft die traditionelle Ökonometrie aufgrund der Verfügbarkeit umfassender, voreingenommener Handelsdaten.
Der Redner geht außerdem auf die Bedeutung der statistischen Analyse bei A/B-Tests ein und betont die Notwendigkeit, die Auswirkungen auf den Preis zu definieren und ein statistisches Maß zur Bekämpfung von Prognoseverzerrungen hinzuzufügen. Ohne diese Voreingenommenheit zu berücksichtigen, wird die Analyse subjektiv und hängt von der individuellen Interpretation ab. Dr. Webster erkennt die Herausforderungen an, die öffentliche Beobachtungsdaten mit sich bringen, und hebt die Erkenntnisse hervor, die aus interventionellen Daten gewonnen wurden. Obwohl die Beantwortung der Frage, welcher Ansatz gewählt werden soll, komplex ist, sind A/B-Tests in der Banken- und Maklerbranche nach wie vor eine gängige Praxis.
Abschließend erörtert Dr. Webster kurz die Beziehung zwischen Transferlernen und kausaler Regularisierung. Während es bei beiden darum geht, ein Modell anhand eines Datensatzes zu trainieren und auf einen anderen anzuwenden, fehlt beim Transferlernen eine kausale Interpretation. Die Analogie zwischen den beiden liegt in ihrem Validierungsprozess, wobei die Kreuzvalidierung eine zentrale Rolle spielt. Trotz ihrer mathematischen Ähnlichkeiten betont Dr. Webster die Neuheit der kausalen Interpretation des Ansatzes.
Andreea Minca (Cornell ORIE): Clustering heterogener Finanznetzwerke
Andreea Minca (Cornell ORIE): Clustering heterogener Finanznetzwerke
Professor Andreea Minca, eine renommierte Expertin auf dem Gebiet der Finanznetzwerke an der Cornell ORIE, hat ihre Forschung der Erforschung der Komplexität der Clusterbildung heterogener Finanznetzwerke gewidmet. Sie führt einen innovativen Regularisierungsbegriff ein, um die einzigartigen Herausforderungen dieser Netzwerke zu bewältigen, insbesondere das Vorhandensein von Ausreißern mit willkürlichen Verbindungsmustern. Diese Ausreißer behindern die Leistung von spektralen Clustering-Algorithmen und verwandeln Clustering in ein rechentechnisch anspruchsvolles Problem, das als NP-schweres kombinatorisches Problem bekannt ist.
Um diese Ausreißer anhand ihrer Verbindungsmuster zu identifizieren, verwendet Minca das stochastische Blockmodell und das gradkorrigierte stochastische Blockmodell. Diese Modelle bieten theoretische Garantien für eine präzise Wiederherstellung, ohne Annahmen über die Ausreißerknoten zu treffen, außer der Kenntnis ihrer Anzahl. Die den Finanznetzwerken inhärente Heterogenität erschwert die Erkennung von Ausreißern, die ausschließlich auf Knotengraden basieren, zusätzlich.
Minca befasst sich mit dem Prozess der Partitionierung des Netzwerks in Cluster und Ausreißer, indem er eine Partitionsmatrix und eine Permutation von Knoten erstellt. Sie veranschaulicht diesen Ansatz, indem sie ihn auf die Analyse des koreanischen Bankensystems anwendet. Darüber hinaus setzt Minca einen Gibbs-Sampler ein, um Lücken im Netzwerk zu schließen und so eine effiziente Risikoallokation und Diversifizierung von Investitionen zu ermöglichen, indem überlappende Portfolios basierend auf ihrer Stärke und dem Grad der Überlappung geclustert werden.
In ihrer Arbeit betont Minca, wie wichtig es ist, Cluster zu generieren, die eine sinnvolle Interkonnektivität aufweisen, und nicht Cluster ohne Konnektivität. Sie schlägt einen Ansatz vor, der fünf Alternativen zur Diversifizierung im Rahmen eines Cluster-Risikoparitätsrahmens bietet, und unterstreicht die Notwendigkeit sorgfältiger Überlegungen bei der Verwendung von Clustering-Algorithmen zur Erzielung einer Diversifizierung in Finanznetzwerken. Minca empfiehlt die Quantifizierung der Leistung von Clustering-Algorithmen mithilfe von Standard-Investitionskategorien und betont die Bedeutung einer fundierten Entscheidungsfindung beim Einsatz dieser Techniken.
Insgesamt liefert die Forschung von Professor Andreea Minca wertvolle Einblicke in die Feinheiten der Clusterbildung heterogener Finanznetzwerke und bietet innovative Ansätze und praktische Lösungen zur Bewältigung der mit diesen Netzwerken verbundenen Herausforderungen. Ihre Arbeit trägt zur Weiterentwicklung der Risikoanalyse, der Portfolioauswahl und dem Verständnis der strukturellen Dynamik von Finanzsystemen bei.