Quantitativer Handel - Seite 6

 

Ernest Chan (Predictnow.ai) – „Wie man maschinelles Lernen zur Optimierung nutzt“



Ernest Chan (Predictnow.ai) – „Wie man maschinelles Lernen zur Optimierung nutzt“

Ernest Chan, Mitbegründer von Predictnow.ai, befasst sich mit den Herausforderungen, denen sich traditionelle Portfoliooptimierungsmethoden im Umgang mit Regimeänderungen auf Märkten gegenübersehen. Er schlägt vor, dass maschinelles Lernen eine Lösung für dieses Problem bieten kann. Chan erklärt, wie sein Team Techniken des maschinellen Lernens zur Portfoliooptimierung anwendet, wobei der Schwerpunkt auf der Integration von Zeitreihenfunktionen liegt, die verschiedene finanzielle Aspekte wie Volatilität, Preise und Zinssätze messen. Durch die Kombination des Farmer-French-Drei-Faktoren-Modells mit dem Verständnis, dass das Ranking wichtiger ist als die Vorhersage, zielen sie darauf ab, eine optimale Portfoliooptimierung zu erreichen.

Anschließend stellt Chan konkrete Ergebnisse der Leistung des CBO-Modells vor und liefert Beispiele von Kunden, die mithilfe dieses Ansatzes eine Verbesserung der Leistung ihres Portfolios festgestellt haben. Er betont, dass Modelle des maschinellen Lernens die Fähigkeit haben, sich an Regimeänderungen anzupassen, sodass sie effektiv auf sich entwickelnde Marktbedingungen reagieren können. Darüber hinaus erörtert er, wie die Renditen für den S&P 500 Index und seine Komponenten mithilfe eines Algorithmus für maschinelles Lernen berechnet werden können, der Zeitreihenfunktionen nutzt.

Darüber hinaus hebt Chan den Ensemble-Ansatz seines Teams zur Optimierung und Spekulation hervor. Er erwähnt ihre „geheime Soße“, die den Bedarf an umfangreicher Rechenleistung überflüssig macht. Anstatt einem zweistufigen Prozess der Vorhersage von Regimen und der Konditionierung ihrer Renditeverteilung zu folgen, nutzen sie visuelle Faktoren, um die Performance des Portfolios direkt vorherzusagen. Darüber hinaus stellt Chan klar, dass durch die Einbeziehung eines erheblichen Teils der Trainingsstichprobe in ihren Algorithmus die erwartete Rendite mit früheren Ergebnissen übereinstimmt.

Dr. Ernest Chan erläutert die Herausforderungen, mit denen traditionelle Portfoliooptimierungsmethoden angesichts von Regimewechseln konfrontiert sind, und betont die Rolle des maschinellen Lernens bei der Bewältigung dieses Problems. Er erörtert die Anwendung maschineller Lerntechniken, die Bedeutung von Zeitreihenmerkmalen und die Bedeutung des Rankings für die Erzielung einer optimalen Portfoliooptimierung. Er teilt konkrete Ergebnisse und Erfolgsgeschichten von Kunden und hebt die Anpassungsfähigkeit von Modellen des maschinellen Lernens an sich ändernde Marktbedingungen hervor. Chan bietet außerdem Einblicke in die Berechnung von Renditen mithilfe von Algorithmen für maschinelles Lernen und beleuchtet ihren Ensemble-Ansatz und ihre einzigartige Methodik.

  • 00:00:00 In diesem Abschnitt erörtert Ernest Chan traditionelle Portfoliooptimierungsmethoden und die Herausforderung von Regimewechseln auf dem Markt, was bedeutet, dass ein Portfolio, das in der Vergangenheit optimal war, in Zukunft möglicherweise nicht optimal ist. Er erklärt, dass die meisten Methoden vergangene historische Renditen oder Informationen als Eingabe nutzen und Regimeänderungen nicht berücksichtigen. Er schlägt vor, dass maschinelles Lernen zur Bewältigung dieses Problems beitragen kann, indem es Big Data und alle in verschiedenen Märkten beobachteten Variablen nutzt. Maschinelles Lernen kann erwartete Renditen generieren, die nicht nur auf historischen Renditen basieren, und kann daher besser für den Umgang mit Regimeänderungen geeignet sein.

  • 00:05:00 In diesem Abschnitt diskutiert Ernest Chan das Konzept des Regimes im Finanzwesen und wie es sich auf die Optimierung auswirkt. Er erklärt, dass es zwar einige realisierbare Regime wie Bären- oder Bullenmärkte gibt, es aber auch versteckte Regime gibt, die nicht explizit definiert werden können und sich ständig ändern. Diese Regime sind schwer vorherzusagen und machen klassische Optimierungsmethoden zunichte. Dieses Verständnis veranlasste Dr. Chan dazu, die Technik der bedingten Portfoliooptimierung zu entwickeln, mit der das aktuelle Regime anhand einer großen Anzahl von Variablen gemessen und angepasst werden kann. Diese Technik kann die Leistung der Handelsstrategie unter unterschiedlichen Marktbedingungen verbessern.

  • 00:10:00 In diesem Abschnitt diskutiert Ernest Chan den Einsatz von maschinellem Lernen zur Optimierung und wie Parameter mithilfe von überwachtem Lernen angepasst werden können. Er erklärt, dass es beim überwachten Lernen eine gekennzeichnete Zielvariable gibt, beispielsweise den zu optimierenden Parameter, bei dem es sich um das Sharp Ratio oder die zukünftige einmonatige Rendite einer Handelsstrategie handelt. Der Input ist eine Kombination aus Markt- und makroökonomischen Variablen, die das aktuelle Regime messen, und den Kontrollvariablen, die der Händler anpassen kann, wodurch ein großer Datensatz entsteht. Zur Optimierung wird eine umfassende Suche verschiedener Parameterkombinationen durchgeführt, um das maximale scharfe Verhältnis zu finden, das die bedingte Parameteroptimierung darstellt. Ernest Chan schließt mit einem einfachen Beispiel unter Verwendung einer Spielzeugstrategie, das die Kombination von Marktmerkmalen und Kontrollmerkmalen veranschaulicht, um eine Zeile für die Eingabe zu bilden.

  • 00:15:00 In diesem Abschnitt erklärt Ernest Chan, wie sein Team maschinelles Lernen zur Portfoliooptimierung anwendet. Um dieses umfassendere Problem anzugehen, verwendet das Team denselben Ansatz des maschinellen Lernens, den es auch bei der Parameteroptimierung angewendet hat. Sie nutzen Big Data als Eingabemerkmale und implizite Vorhersage verborgener Regime. Im Gegensatz zu klassischen Portfoliooptimierungsmethoden, die ausschließlich auf vergangenen Renditen und der Kovarianz der Renditen als Eingabedaten basieren, berücksichtigt ihre Methode die aktuelle Marktlage, technische und fundamentale Indikatoren sowie makroökonomische Indikatoren, um sich an das Regime anzupassen und das Portfolio zu finden, das unter den aktuellen Bedingungen optimal ist Marktbedingung. Das Team beantwortet Fragen aus den Fragen und Antworten und erklärt, dass es keine Simulation, sondern reale Marktdaten verwendet, um die Renditen bei einer bestimmten hypothetischen Kapitalallokation zu berechnen.

  • 00:20:00 In diesem Abschnitt erklärt Ernest Chan die Art der Funktionen, die bei der Portfoliooptimierung durch maschinelles Lernen verwendet werden. Er betont, dass nur Zeitreihenmerkmale verwendet werden und keine Querschnittsmerkmale beteiligt sind. Diese Methode konzentriert sich auf die Merkmale des Portfolios oder des Marktregimes als Ganzes, wie z. B. Faktoren zur Messung von Finanzen, Volatilität, Preisen und Zinssätzen. Obwohl dies seltsam erscheinen mag, bringt Chan es auf die Erklärungsqualität des Farmer-French-Drei-Faktoren-Modells zurück. Das Ziel der Verwendung von Modellen des maschinellen Lernens besteht nicht darin, Renditen vorherzusagen, sondern sie genau einzuordnen, um eine optimale Portfoliooptimierung zu erreichen.

  • 00:25:00 In diesem Abschnitt erörtert Ernest Chan die Bedeutung des Rankings in Finanzanwendungen und wie es auf die Portfoliooptimierung angewendet werden kann. Er erklärt, dass herkömmliche Methoden zur Verwendung von Modellen des maschinellen Lernens zur Vorhersage von Querschnittsrenditen zu einer Garbage-in-Garbage-out-Situation führen können, wenn die Renditevorhersagen in Größe und Vorzeichen nicht genau sind. Mit der CPO-Methode, die das Fama-French-Faktor-Modell und die Vorstellung kombiniert, dass die Rangfolge wichtiger ist als die Vorhersage, ist die optimale Lösung jedoch in jedem Schritt des Programms wesentlich stabiler gegenüber Fehlern. Er weist außerdem darauf hin, dass diese Methode aufgrund der Rangfolge enorme Fehler bei der Vorhersage des maschinellen Lernens tolerieren kann.

  • 00:30:00 In diesem Abschnitt diskutiert Ernest Chan, wie die Wirkung von Behavioral Finance anhand bekannter Marktkennzahlen wie dem Netto-Delta von Optionskaufaktivitäten gemessen werden kann. Er erklärt, dass sein Unternehmen diese Metrik als eine der Funktionen in seinem CBO-Modell verwendet, das die Auswirkung des Phänomens und nicht die Hauptursache des Phänomens berücksichtigt. Chan teilt dann konkrete Ergebnisse der Leistung des CBO-Modells mit, einschließlich der Überwindung der Mittelwert-Varianz-Methode und der Outperformance traditioneller Vermögenswerte. Darüber hinaus liefert er ein Beispiel dafür, wie die CBO-Methode im Vergleich zu anderen Methoden bei der Gewichtung von Wachstumsaktien und Large-Cap-Aktien in bestimmten Zeiträumen besser abgeschnitten hat.

  • 00:35:00 In diesem Abschnitt erklärt der Redner, dass die klassischen Investitions- und Handelsmethoden fest und nicht adaptiv sind, im Gegensatz zur CBO-Methode (Combinatorial Bayesian Optimization), die die klassischen Methoden übertrifft, weil sie sich an das Marktregime anpassen kann, was zu … bessere Leistung. Der CBO soll Transaktionen optimieren und empfehlen, auch wenn mit dem bestehenden Portfolio bereits Transaktionskosten verbunden sind. Der CBO verursacht keine zusätzlichen Transaktionskosten und empfiehlt lediglich den Kauf mehr oder weniger bestimmter Aktien. Anschließend nennt der Referent Beispiele von Kunden, die die CBO-Methode übernommen und eine Verbesserung der Performance ihres Portfolios festgestellt haben.

  • 00:40:00 In diesem Abschnitt spricht Ernest über eine Fallstudie, in der sie trotz Beschränkungen von null bis 25 Prozent für jede Aktie positive Renditen in einem Aktienportfolio erzielen konnten. Das Portfolio bestand aus Technologieaktien und sollte im Jahr 2022 stark einbrechen, aber ihre Methode, in diesem Zeitraum 50 Prozent in Barmittel zu investieren, trug zur Generierung von Renditen bei. Auf die Frage nach der Reproduzierbarkeit ihrer Methoden erklärt Ernest, dass einige Funktionen wie das Netto-Delta von Optionen zwar wichtige Eingabefunktionen seien, sie jedoch auf ihrer Website eine ausführliche Beschreibung davon veröffentlicht hätten. Er erwähnt auch die Verwendung von Gradientenprozess-Entscheidungsbäumen und anderen Algorithmen für maschinelles Lernen, und ihr Ansatz zur Definition des Marktregimes beruht auf der Darstellung mithilfe von Hunderten von Funktionen.

  • 00:45:00 In diesem Abschnitt erklärt Chan, wie maschinelles Lernen zur Optimierung genutzt werden kann, indem eine Antwortvariable, beispielsweise ein Sharpe-Verhältnis, erstellt und eine Funktion F für verschiedene Szenarien der Kontrollvariablen für jeden Marktzustand angepasst wird. Die Bezeichnung des überwachten Lernalgorithmus ist die zu maximierende Variable, beispielsweise die Sharpe-Ratio, und jeder Portfoliovorschlag wird in die Vorhersageformel eingespeist, bis das Portfolio mit der besten Leistung gefunden ist. Chan weist darauf hin, dass die Komplexität des Problems nicht linear mit der Anzahl der Vermögenswerte im Portfolio wächst, sein Team hat jedoch einen Algorithmus zur Bewältigung des Problems entwickelt. Das größte Portfoliouniversum, das sie verwendet haben, ist der S&P 500.

  • 00:50:00 In diesem Abschnitt liefert Ernest Chan ein Beispiel dafür, wie das Modell des maschinellen Lernens auf Regimeänderungen reagiert, indem es die Bargeldallokation als Indikator verwendet. Als der Bärenmarkt im Jahr 2022 begann, blieb das Modell die meiste Zeit in bar und bewahrte so das Portfolio vor negativen Renditen. Er erwähnt auch, dass die Zielfunktion aufgrund der nichtlinearen Natur des Lernalgorithmus und des Optimierungsalgorithmus auf alles festgelegt werden kann, nicht nur auf das traditionelle maximale scharfe Verhältnis oder die maximale Rendite, und dass Einschränkungen wie Gewichte, ESG und Umsatz dies können angewendet werden. Die Software ist flexibel und kann alle vom Kunden bereitgestellten Marktfunktionen berücksichtigen. Darüber hinaus erwähnt Chan, dass das Modell mit Aktien mit kurzer Historie umgehen kann, da es das Hinzufügen und Löschen von Komponenten im Portfolio ermöglicht und das Modell bei jeder Neuausrichtung neu trainiert werden kann.

  • 00:55:00 In diesem Abschnitt erläutert Chan die Berechnung der Renditen für den S&P 500 Index und seine Komponenten. Er erklärt, dass sich die Verwendung eines Algorithmus für maschinelles Lernen zur Berechnung der Portfoliorenditen von der Verwendung der Markowitz-Technik unterscheidet, da der Algorithmus für maschinelles Lernen Zeitreihenmerkmale und nicht Aktienrenditen als Eingabe verwendet. Chan weist außerdem darauf hin, dass der Regimewechsel durch 180 Variablen definiert wird und tägliche, monatliche und vierteljährliche Messungen als Merkmale verwendet werden, die in einen Algorithmus für maschinelles Lernen eingespeist werden, der die am höchsten bewerteten Merkmale auswählt, die für die Vorhersage der Zukunft des Portfolios nützlich sind. Schließlich definiert Chan das Problem als Ranking-Problem und nicht als Regressionsproblem, und es kann auch als Klassifizierungsproblem umgestaltet werden.

  • 01:00:00 In diesem Abschnitt diskutiert der Redner die Möglichkeit, ein Ensemble von Portfolios anstelle nur eines optimalen Portfolios zu verwenden, aber das Forschungsteam muss sich näher damit befassen. Sie bestätigen auch, dass das Modell bei einer Million Kombinationen von Portfolios jeden Tag anhand einer Million Kombinationen historischer Daten trainiert werden müsste. Sie erwähnen jedoch ihr „Geheimrezept“, das eine solche Rechenleistung überflüssig macht. Der Redner erklärt auch, dass sie keinen zweistufigen Prozess zur Vorhersage von Regimen und anschließender Konditionierung der Renditeverteilung dieses Regimes verwenden, sondern stattdessen den visuellen Faktor nutzen, um die Leistung eines Portfolios direkt vorherzusagen. Sie beenden die Diskussion mit der Aussage, dass die erwartete Rendite ähnlich sein würde wie in der Vergangenheit, wenn sie einen großen Teil dieser Trainingsstichprobe in ihr Modell einbeziehen würden.
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
  • 2023.03.01
  • www.youtube.com
Abstract: Conditional Portfolio Optimization is a portfolio optimization technique that adapts to market regimes via machine learning. Traditional portfolio...
 

Finanzielles maschinelles Lernen – die Perspektive eines Praktikers von Dr. Ernest Chan



Finanzielles maschinelles Lernen – die Perspektive eines Praktikers von Dr. Ernest Chan

In diesem informativen Video befasst sich Dr. Ernest Chan mit dem Bereich des maschinellen Lernens im Finanzbereich, untersucht mehrere Schlüsselaspekte und beleuchtet wichtige Überlegungen. Er betont die Bedeutung der Vermeidung von Überanpassungen und plädiert für Transparenz in Modellen. Darüber hinaus hebt Dr. Chan die Vorteile der Verwendung nichtlinearer Modelle zur Vorhersage des Marktverhaltens hervor. Allerdings geht er auch auf die Grenzen des maschinellen Lernens im Finanzmarkt ein, etwa die Reflexivität und die sich ständig ändernde Dynamik des Marktes.

Ein entscheidender Punkt, den Dr. Chan hervorhebt, ist die Bedeutung der Fachkompetenz in der Finanzdatenwissenschaft. Er unterstreicht die Notwendigkeit einer Merkmalsauswahl, um ein besseres Verständnis der wesentlichen Variablen zu erlangen, die die Schlussfolgerungen eines Modells beeinflussen. Durch die Identifizierung dieser wichtigen Eingaben können Anleger und Händler Einblicke in ihre Verluste gewinnen und verstehen, warum bestimmte Entscheidungen getroffen wurden.

Dr. Chan geht auch auf die Anwendung von maschinellem Lernen im Risikomanagement und bei der Kapitalallokation ein. Er schlägt vor, einen Nischenmarkt zu finden und den direkten Wettbewerb mit gut finanzierten Organisationen zu vermeiden. Auf diese Weise können Praktiker ihre Erfolgschancen in diesen Bereichen erhöhen.

Im gesamten Video hebt Dr. Chan die Vorteile und Herausforderungen hervor, die mit verschiedenen Modellen und Strategien verbunden sind. Er weist darauf hin, dass traditionelle quantitative Strategien wie lineare Modelle zwar leicht zu verstehen und weniger anfällig für Überanpassungen sind, sie jedoch mit der nichtlinearen Abhängigkeit zwischen Prädiktoren zu kämpfen haben. Im Gegensatz dazu zeichnen sich Modelle des maschinellen Lernens durch den Umgang mit nichtlinearen Beziehungen aus, ihre Komplexität und Undurchsichtigkeit kann jedoch zu Herausforderungen bei der Interpretation ihrer Ergebnisse und der Bewertung der statistischen Signifikanz führen.

Dr. Chan erörtert auch die Grenzen des Einsatzes von maschinellem Lernen zur Vorhersage des Finanzmarkts. Er betont, dass sich der Markt ständig weiterentwickelt, was es schwierig macht, genaue Vorhersagen zu treffen. Er schlägt jedoch vor, dass maschinelles Lernen bei der Vorhersage privater Informationen erfolgreich sein kann, beispielsweise bei Handelsstrategien, bei denen ein Wettbewerb mit identischen Parametern weniger wahrscheinlich ist.

Darüber hinaus geht Dr. Chan auf die Einbindung grundlegender Daten, einschließlich kategorialer Daten, in Modelle des maschinellen Lernens ein. Er weist darauf hin, dass Modelle des maschinellen Lernens gegenüber linearen Regressionsmodellen einen Vorteil haben, wenn es darum geht, sowohl realwertige als auch kategoriale Daten zu verarbeiten. Er warnt jedoch davor, sich ausschließlich auf maschinelles Lernen zu verlassen, und betont, dass fundierte Domänenkenntnisse nach wie vor entscheidend für die Erstellung effektiver Funktionen und die genaue Interpretation von Daten sind.

Im Bereich der Kapitalallokation hebt Dr. Chan hervor, wie maschinelles Lernen anspruchsvollere erwartete Renditen liefern kann und die Verwendung vergangener Leistungen als alleiniger Indikator für zukünftigen Erfolg in Frage stellt. Er erörtert auch die Nuancen des Marktverständnisses, die maschinelles Lernen bieten kann, wobei die Wahrscheinlichkeiten im Gegensatz zu statischen Wahrscheinlichkeitsverteilungen aus der klassischen Statistik täglich variieren.

Dr. Chan geht abschließend auf die Grenzen von Deep Learning bei der Erstellung vielfältiger Querschnittsmerkmale ein, die Domänenexpertise erfordern. Er teilt seine Gedanken zur Anwendbarkeit des Reinforcement Learning in Finanzmodellen und weist auf dessen potenzielle Wirksamkeit bei hohen Frequenzen, aber auf Einschränkungen bei längeren Zeitskalen hin.

Für diejenigen, die sich weiter mit maschinellem Lernen im Finanzbereich befassen möchten, empfiehlt Dr. Chan sein Unternehmen PredictNow.ai als wertvolle Ressource für Fachwissen zum maschinellen Lernen im Finanzbereich ohne Code.

  • 00:00:00 die Tatsache, dass sie immer häufiger eingesetzt werden. In diesem Abschnitt des Videos spricht Dr. Ernest Chan über seine lange Erfahrung im Bereich des maschinellen Lernens und darüber, wie er Wert darin gefunden hat, es auf die Finanzbranche anzuwenden, was seiner Meinung nach bis vor Kurzem schwierig war. Er befürwortet einfache Modelle und Strategien wie Einzelfaktor- und lineare Modelle, die für quantitative Händler seit Jahrzehnten gut funktionieren. Mit dem Aufkommen des Quant-Trading werden diese Modelle immer weniger profitabel, und Chan erklärt, wie es ihm gelungen ist, aus maschinellem Lernen einen Mehrwert zu ziehen, der den meisten Menschen nicht gelingt.

  • 00:05:00 In diesem Abschnitt diskutiert Dr. Ernest Chan das historische Problem der Überanpassung beim maschinellen Lernen im Finanzbereich; Wenn Modelle mehrere Parameter anpassen mussten, ist das Risiko einer Überanpassung sehr hoch, insbesondere bei der Arbeit mit niederfrequenten Finanzdaten wie täglichen Finanzzeitreihen. Im Laufe der Jahre ermöglichten die Fortschritte beim maschinellen Lernen, insbesondere beim Deep Learning, jedoch die Überwindung der Überanpassung. Techniken wie Random Forest, Kreuzvalidierung, Dropout und andere haben dazu beigetragen, die Überanpassung zu reduzieren, und andere Tools wie Algorithmen haben maschinelles Lernen transparent gemacht. Das Problem beim Black-Box-Handel und der mangelnden Transparenz besteht darin, dass es nicht akzeptabel ist, nicht erklären zu können, warum Sie bestimmte Geschäfte getätigt haben, selbst wenn Sie damit Geld verdienen.

  • 00:10:00 In diesem Abschnitt erörtert Dr. Ernest Chan das Konzept der Funktionsauswahl beim maschinellen Lernen, das Händlern und Investoren dabei helfen kann, die wichtigen Variablen, die zur Schlussfolgerung eines bestimmten Modells des maschinellen Lernens führen, besser zu verstehen. Die Auswahl von Merkmalen kann Anlegern helfen, Erkenntnisse darüber zu gewinnen, warum sie Geld verloren haben oder warum ein Modell eine falsche Entscheidung getroffen hat, indem sie die wichtigen Eingaben identifizieren, die zu diesem Ergebnis führen. Dr. Chan betont außerdem, dass maschinelles Lernen effektiver für das Risikomanagement und die Kapitalallokation eingesetzt werden kann als als primärer Signalgenerator, da Marktprognosen einer Reflexivität unterliegen, was zu Schwierigkeiten bei der Erkennung von Mustern in der Vergangenheit führt.

  • 00:15:00 In diesem Abschnitt erörtert Dr. Ernest Chan die Grenzen des Einsatzes maschinellen Lernens zur Vorhersage des Finanzmarkts, der sich ständig weiterentwickelt und nicht mit der Vorhersage von Krankheiten wie Krebs verglichen werden kann. Allerdings erklärt er, dass der Einsatz von maschinellem Lernen zur Vorhersage privater Informationen, wie etwa Handelsstrategien, ein erfolgreicher Ansatz sein kann, da andere Hedgefonds nicht mit genau denselben Parametern konkurrieren. Er vergleicht außerdem traditionelle quantitative Strategien mit auf maschinellem Lernen basierenden Strategien und weist darauf hin, dass maschinelles Lernen bei der Modellierung alternativer und großer Datensätze durch nichtlineare Modelle hilfreich sein kann.

  • 00:20:00 In diesem Abschnitt diskutiert Dr. Ernest Chan die Vorteile der Verwendung nichtlinearer Modelle zur Vorhersage des Marktverhaltens. Herkömmliche Quantenmodelle sind leicht zu verstehen und linear, was eine Überanpassung erschwert, aber sie können nichtlineare Abhängigkeiten zwischen Prädiktoren nicht verarbeiten. Modelle des maschinellen Lernens hingegen können mit nichtlinearen Abhängigkeiten problemlos umgehen und sind aufgrund ihrer Komplexität und Undurchsichtigkeit schwer zu reproduzieren. Darüber hinaus bieten Modelle des maschinellen Lernens eine Erfolgswahrscheinlichkeit, die eine fundiertere Kapitalallokation ermöglicht. Überanpassung ist jedoch ein Problem bei Modellen für maschinelles Lernen und die Beurteilung der statistischen Signifikanz kann schwierig sein. Die Simulation von Backtests ist eine unvollkommene Lösung, und die Nuancen des Marktes können in einer Simulation nicht vollständig erfasst werden.

  • 00:25:00 In diesem Abschnitt diskutiert Dr. Ernest Chan den Unterschied zwischen traditionellen quantitativen Strategien und auf maschinellem Lernen basierenden Strategien. Er erklärt, dass es viel schwieriger sei, den Markt zu simulieren und genaue Fehlerbalken für traditionelle Strategien zu erstellen, was es schwieriger mache, ihre Wirksamkeit zu beurteilen. Andererseits lassen sich mit maschinellen Lernmodellen leicht mehrere Backtests generieren, indem einfach der Zufallsstartwert ausgetauscht wird, und jeder Backtest liefert möglicherweise unterschiedliche Ergebnisse. Diese Zufälligkeit ermöglicht eine einfachere Beurteilung der statistischen Signifikanz von Backtests, was sie zu einem großen Vorteil des Einsatzes von maschinellem Lernen im Handel macht. Allerdings ist die Finanzdatenwissenschaft der schwierigste und zeitaufwändigste Schritt bei der Entwicklung einer Strategie, da es in der Regel zahlreiche Probleme mit Finanzdaten gibt, selbst von seriösen Anbietern.

  • 00:30:00 In diesem Abschnitt skizziert Dr. Ernest Chan einige der Probleme, die mit der Verwendung von Stimmungsdaten verbunden sind. Er weist darauf hin, dass Stimmungsdaten nicht immer vertrauenswürdig sind, da Unternehmen, die die Nachrichten verarbeiten, zurückgehen und Parameter ändern können, um gut auszusehen. Da man nicht wissen kann, ob die Daten voreingenommen betrachtet wurden, ist es notwendig, Roh-Newsletter in eine neue Stimmung umzuwandeln, was ein Risiko mit sich bringt. Darüber hinaus stellen Daten eine erhebliche Herausforderung bei der Automatisierung von Antworten dar. Der Schritt der Finanzdatenwissenschaft ist eine Herausforderung, da er menschliche Intelligenz durch Fachwissen erfordert, ein paradoxes Problem bei Problemen des maschinellen Lernens im Finanzbereich. Der zweite Schritt ist maschinelles Lernen, den die Technologiebranche bereits gelöst hat. Der letzte Schritt besteht in der Entwicklung und dem Backtesting von Handelsstrategien. Dazu müssen die Vorhersagen zu einer kohärenten Strategie zusammengefasst und die statistische Signifikanz bewertet werden.

  • 00:35:00 In diesem Abschnitt erläutert Dr. Ernest Chan, wie man Vorhersagen in ein Portfolio umwandelt, indem man einer Standardroutine folgt, die in Finanzlehrbüchern zu finden ist. Dies erfordert jedoch einige Domänenkenntnisse und erfolgt nicht vollständig automatisch. Er hebt auch die Schwierigkeiten der Finanzdatenwissenschaft hervor, etwa die Stationierung von Funktionen und die Bedeutung der Verwendung von Meta-Labeling, um vorherzusagen, ob eine Strategie profitabel sein wird, anstatt den Markt vorherzusagen. Für weitere Informationen empfiehlt Dr. Chan die Lektüre seines Blogbeitrags über Meta-Labeling im Finanzwesen. Er erwähnt auch, dass Random Forest das beliebteste Modell für maschinelles Lernen im Finanzbereich ist, da es Nichtlinearitäten gut erfasst und genau die richtige Komplexität aufweist.

  • 00:40:00 In diesem Abschnitt spricht Dr. Ernest Chan über die Bedeutung des maschinellen Lernens für die Vorhersage von Markttrends und die Vermeidung von Verlusten. Er teilt seine persönlichen Erfahrungen mit der Verwendung eines maschinellen Lernmodells zur Erkennung terroristischer Aktivitäten in der Weltwirtschaft und warnt vor den Risiken, wenn man diesem Rat nicht folgt, wie es bei der Ankündigung des Pfizer-Impfstoffs der Fall war. Er betont außerdem die Bedeutung der Merkmalsauswahl für die Erklärung von Verlusten gegenüber Anlegern und empfiehlt Einsteigern sein eigenes Buch über maschinelles Lernen. Darüber hinaus betont Dr. Chan die Bedeutung von Datensauberkeit und Stationarität für korrekte Vorhersagen. Er gibt ein Beispiel dafür, wie sich eine instationäre Zeitreihe negativ auf die Fähigkeit des Modells auswirken kann, genaue Vorhersagen zu treffen.

  • 00:45:00 In diesem Abschnitt diskutiert Dr. Ernest Chan die Integration grundlegender Daten, insbesondere kategorialer Daten, in Modelle für maschinelles Lernen. Während lineare Regressionsmodelle nicht mit kategorialen Daten umgehen können, können Modelle für maschinelles Lernen sowohl mit realen Werten als auch mit kategorialen Daten umgehen. Dr. Chan betont jedoch, dass maschinelles Lernen menschliche Händler nicht vollständig ersetzen kann, da maschinelles Lernen im Finanzbereich umfassende Fachkenntnisse erfordert, um Funktionen zu erstellen und Daten richtig zu interpretieren. Darüber hinaus warnt er vor einer blinden Verehrung von Deep Learning und betont, dass es sich ohne ausreichende relevante Daten nicht um eine Einheitslösung handele. Abschließend rät er jungen Praktikern, einen Nischenmarkt zu finden und den direkten Wettbewerb mit gut finanzierten Organisationen zu vermeiden.

  • 00:50:00 In diesem Abschnitt erörtert Dr. Ernest Chan die Kapitalallokation und wie maschinelles Lernen als Input für das Kapital-Asset-Allokationsmodell eine differenziertere erwartete Rendite liefern kann. Er hinterfragt den Widerspruch, die Leistung der Vergangenheit als erwartete Rendite heranzuziehen, was keine Garantie für zukünftigen Erfolg ist. Maschinelles Lernen kann im Gegensatz zu klassischen Statistiken, die nur statische Verteilungswahrscheinlichkeiten liefern, auch ein differenziertes Verständnis des Marktes mit täglich unterschiedlichen Wahrscheinlichkeiten liefern. Wenn es um Deep-Learning-Methoden wie rekurrente Faltungs-Neuronale Netze geht, ist Dr. Chan der Ansicht, dass diese für Nicht-Zeitreihen-Eingaben und Merkmalsauswahl möglicherweise nicht nützlich sind.

  • 00:55:00 In diesem Abschnitt erörtert Dr. Ernest Chan die Grenzen von Deep Learning bei der Erstellung verschiedener Querschnittsmerkmale, die für erfolgreiche Vorhersagen erforderlich sind, die Fachwissen erfordern. Er äußert auch seine Meinung zum Stellenwert des verstärkenden Lernens in Finanzmodellen auf verschiedenen Zeitskalen. Er glaubt, dass Reinforcement Learning beim Hochfrequenzhandel sehr häufig funktionieren könnte, da es auf Personen reagieren kann, die Aufträge in das Auftragsbuch eingeben, bei längeren Zeiträumen jedoch versagt. Abschließend empfiehlt er sein Unternehmen PredictNow.ai als großartige Ressource für maschinelles Lernen im Finanzbereich ohne Code für diejenigen, die sich für das Fachwissen von jemandem wie ihm interessieren.
Financial Machine Learning - A Practitioner’s Perspective by Dr. Ernest Chan
Financial Machine Learning - A Practitioner’s Perspective by Dr. Ernest Chan
  • 2020.11.12
  • www.youtube.com
QUANTT and QMIND came together to offer a unique experience for those interested in Financial Machine Learning (ML). Unifying these two clubs is Dr. Ernest C...
 

Handeln mit Deep Reinforcement Learning | Dr. Thomas Starke


Handeln mit Deep Reinforcement Learning | Dr. Thomas Starke

Dr. Thomas Starke, ein Experte auf dem Gebiet des Deep Reinforcement Learning für den Handel, hielt einen aufschlussreichen Vortrag und beteiligte sich an einer Frage-und-Antwort-Runde mit dem Publikum. Das Folgende ist eine ausführliche Zusammenfassung seines Vortrags:

Dr. Starke führte zunächst Deep Reinforcement Learning für den Handel ein und betonte dessen Fähigkeit, Maschinen in die Lage zu versetzen, Aufgaben ohne direkte Aufsicht zu lösen. Er nutzte die Analogie eines maschinellen Lernens, um ein Computerspiel zu spielen, bei dem es lernt, Entscheidungen auf der Grundlage dessen zu treffen, was es auf dem Bildschirm sieht, und auf der Grundlage seiner Entscheidungskette Erfolg oder Misserfolg erzielt.

Anschließend erörterte er das Konzept eines Markov-Entscheidungsprozesses im Handel, bei dem Zustände mit Marktparametern verknüpft sind und Aktionen den Prozess von einem Zustand in einen anderen überführen. Das Ziel besteht darin, die erwartete Belohnung angesichts einer bestimmten Richtlinie und eines bestimmten Staates zu maximieren. Marktparameter sind entscheidend, um der Maschine dabei zu helfen, fundierte Entscheidungen über die zu ergreifenden Maßnahmen zu treffen.

Der Entscheidungsprozess im Handel umfasst die Entscheidung, ob gekauft, verkauft oder gehalten werden soll, basierend auf verschiedenen Indikatoren, die den Zustand des Systems informieren. Dr. Starke betonte, wie wichtig es sei, sich nicht ausschließlich auf unmittelbare Gewinn- oder Verlustkennzeichnungen für jeden Staat zu verlassen, da dies zu falschen Vorhersagen führen könne. Stattdessen muss die Maschine verstehen, wann sie in einem Trade bleiben muss, selbst wenn sie zunächst gegen sie verstößt, und vor dem Ausstieg darauf warten, dass der Trade wieder zur Durchschnittslinie zurückkehrt.

Um der Schwierigkeit zu begegnen, jeden Schritt im Gewinn und Verlust eines Handels zu kennzeichnen, führte Dr. Starke die rückwirkende Kennzeichnung ein. Dieser Ansatz verwendet die Bellman-Gleichung, um jeder Aktion und jedem Zustand einen Wert ungleich Null zuzuweisen, auch wenn dies nicht zu einem unmittelbaren Gewinn führt. Dadurch besteht die Möglichkeit einer Rückkehr zum Mittelwert und einem eventuellen Gewinn.

Deep Reinforcement Learning kann dabei helfen, Handelsentscheidungen auf der Grundlage zukünftiger Ergebnisse zu treffen. Herkömmliche Reinforcement-Learning-Methoden erstellen Tabellen auf der Grundlage vergangener Erfahrungen, doch im Handel ist die Zahl der Zustände und Einflüsse enorm. Um diese Komplexität zu bewältigen, nutzt Deep Reinforcement Learning neuronale Netze, um diese Tabellen anzunähern, sodass es ohne die Erstellung einer riesigen Tabelle möglich ist. Dr. Starke erörterte, wie wichtig es ist, die richtige Belohnungsfunktion und die richtigen Eingaben zu finden, um den Zustand zu definieren und letztendlich eine bessere Entscheidungsfindung für den Handel zu ermöglichen.

Die Bedeutung von Eingaben im Handel wurde hervorgehoben und betont, dass sie einen prädiktiven Wert haben müssen. Dr. Starke betonte, wie wichtig es ist, das System auf bekanntes Verhalten zu testen und basierend auf der gewählten Belohnungsfunktion den geeigneten Typ, die Größe und die Kostenfunktion des neuronalen Netzwerks auszuwählen. Er erklärte, wie Gamification im Handel eingesetzt wird, wo historische und aktuelle Preise, technische Sicherheitsdaten und alternative Datenquellen den Zustand bilden und die Belohnung der Gewinn und Verlust (GuV) des Handels ist. Die Maschine kennzeichnet Beobachtungen rückwirkend mithilfe der Bellman-Gleichung und aktualisiert kontinuierlich durch neuronale Netze angenäherte Tabellen, um die Entscheidungsfindung zu verbessern.

In Bezug auf das Training mit Verstärkungslernen erörterte Dr. Starke verschiedene Möglichkeiten zur Strukturierung der Preisreihe, einschließlich des zufälligen Ein- und Ausstiegs an verschiedenen Punkten. Er ging auch auf die Herausforderung ein, eine Belohnungsfunktion zu entwerfen, und lieferte Beispiele wie reine prozentuale Gewinn- und Verlustrechnung, Gewinn pro Tick und die Sharpe-Ratio sowie Methoden zur Vermeidung langer Transportzeiten oder Drawdowns.

In Bezug auf Eingaben für den Handel erwähnte Dr. Starke zahlreiche Optionen, darunter Eröffnungs-Hoch-Tief-Schluss- und Volumenwerte, Candlestick-Muster, technische Indikatoren wie der Relative-Stärke-Index, Tages-/Wochen-/Jahreszeit sowie die Eingabe von Preisen und technischen Daten Indikatoren für andere Instrumente. Auch alternative Datenquellen wie Sentiment- oder Satellitenbilder können berücksichtigt werden. Der Schlüssel besteht darin, diese Eingaben in einen komplexen Zustand zu versetzen, ähnlich wie Eingabemerkmale in Computerspielen zur Entscheidungsfindung verwendet werden.

Dr. Starke erläuterte die Testphase, die der Verstärkungslerner durchlaufen muss, bevor er für den Handel eingesetzt wird. Er skizzierte verschiedene Tests, darunter saubere Sinuswellen, Trendkurven, zufällige Reihen ohne Struktur, verschiedene Arten von Ordnungskorrelationen, Rauschen in sauberen Testkurven und wiederkehrende Muster. Mithilfe dieser Tests lässt sich feststellen, ob die Maschine dauerhaft Gewinne erwirtschaftet, und etwaige Fehler in der Codierung identifizieren. Dr. Starke erörterte auch die verschiedenen Arten von verwendeten neuronalen Netzen, wie z. B. Standard-, Faltungs- und Langzeitgedächtnis (LSTM). Er äußerte eine Präferenz für einfachere neuronale Netze, die seine Anforderungen erfüllen, ohne übermäßigen Rechenaufwand zu erfordern.

Anschließend befasste sich Dr. Starke mit den Herausforderungen, die der Einsatz von Reinforcement Learning für den Handel mit sich bringt. Er erkannte die Schwierigkeit an, zwischen Signal und Rauschen zu unterscheiden, insbesondere bei verrauschten Finanzzeitreihen. Er betonte auch, wie schwierig es ist, sich durch verstärktes Lernen an Veränderungen im Marktverhalten anzupassen, was es zu einer Herausforderung macht, neue Verhaltensweisen zu erlernen. Darüber hinaus erwähnte er, dass Reinforcement Learning zwar eine erhebliche Menge an Trainingsdaten erfordert, Marktdaten jedoch oft spärlich sind. Eine Überanpassung ist ein weiteres Problem, da Reinforcement Learning tendenziell auf grundlegende Marktmuster einwirkt und leicht zu einer Überanpassung führt. Der Aufbau komplexerer neuronaler Netze kann dieses Problem abmildern, ist jedoch eine zeitaufwändige Aufgabe. Insgesamt betonte Dr. Starke, dass Reinforcement Learning keine garantierte Lösung für profitable Ergebnisse ist und dass Markterfahrung und domänenspezifisches Wissen von entscheidender Bedeutung sind, um im Handel erfolgreich zu sein.

Während der Frage-und-Antwort-Runde ging Dr. Starke auf verschiedene Fragen im Zusammenhang mit dem Handel mit Deep Reinforcement Learning ein. Er stellte klar, dass die Bellman-Gleichung keinen Look-Ahead-Bias einführt, und erörterte nach sorgfältiger Analyse die mögliche Verwendung technischer Indikatoren als Inputs. Er untersuchte auch die Möglichkeit, Satellitenbilder zur Vorhersage von Aktienkursen zu nutzen, und erklärte, dass Verstärkungshandel in kleinen Zeitrahmen durchgeführt werden kann, abhängig von der Berechnungszeit des neuronalen Netzwerks. Er warnte davor, dass Verstärkungshandelsalgorithmen empfindlich auf Marktanomalien reagieren, und erklärte, warum das Training zufälliger Entscheidungsbäume mithilfe von Verstärkungslernen keine aussagekräftigen Ergebnisse liefert.

Dr. Starke empfahl aufgrund ihrer Eignung für das Problem die Verwendung neuronaler Netze für den Handel anstelle von Entscheidungsbäumen oder Support-Vektor-Maschinen. Er betonte, wie wichtig es sei, die Verlustfunktion basierend auf der verwendeten Belohnungsfunktion abzustimmen. Während einige Versuche unternommen wurden, Reinforcement Learning auf den Hochfrequenzhandel anzuwenden, betonte Dr. Starke die Herausforderung langsamer neuronaler Netze, denen es an Reaktionsfähigkeit auf Echtzeitmärkten mangelt. Er empfahl Einzelpersonen, die eine Karriere als Handelsvertreter in der Finanzbranche anstrebten, sich Marktkenntnisse anzueignen, tatsächliche Geschäfte zu tätigen und aus den Erfahrungen zu lernen. Abschließend erörterte er die Herausforderungen der Kombination neuronaler Netze und des Optionshandels und erkannte die Komplexität der Aufgabe.

Abschließend lieferte Dr. Thomas Starke wertvolle Einblicke in den Handel mit Deep Reinforcement Learning. Er behandelte Themen wie den Entscheidungsprozess im Handel, rückwirkende Kennzeichnung, die Bellman-Gleichung, die Bedeutung von Eingaben, Testphasen und Herausforderungen im Zusammenhang mit Reinforcement Learning für den Handel. Durch seinen Vortrag und die Frage-und-Antwort-Runde bot Dr. Starke Anleitung und praktische Überlegungen zur Nutzung von Deep Reinforcement Learning auf den Finanzmärkten.

  • 00:00:00 Dr. Thomas Stark stellt Deep Reinforcement Learning für den Handel vor, ein Thema, das ihn schon seit mehreren Jahren interessiert. Reinforcement Learning (RL) ist eine Technik, die es einer Maschine ermöglicht, eine Aufgabe ohne Aufsicht zu lösen und dabei selbst zu lernen, was zu tun ist, um günstige Ergebnisse zu erzielen. Er erklärt, wie eine Maschine, die lernen möchte, ein Computerspiel zu spielen, in einem Spielszenario beginnt und von einem Schritt zum nächsten übergeht, während sie auf das reagiert, was sie auf dem Bildschirm sieht. Schließlich endet das Spiel und die Maschine erzielt Erfolg oder Misserfolg auf der Grundlage der von ihr getroffenen Entscheidungskette.

  • 00:05:00 Dr. Thomas Starke diskutiert den Handel mit Deep Reinforcement Learning und erklärt das Konzept eines Markov-Entscheidungsprozesses. Bei diesem Prozess wird ein Zustand mit einem bestimmten Marktparameter verknüpft und eine Aktion überführt den Prozess von einem Zustand in den nächsten. Je nach Übergang erhält der Agent entweder eine positive oder eine negative Belohnung. Das Ziel besteht darin, die erwartete Belohnung angesichts einer bestimmten Richtlinie und eines bestimmten Staates zu maximieren. Im Handel werden Marktparameter verwendet, um den Zustand des Agenten zu ermitteln und ihm bei der Entscheidungsfindung über die zu ergreifenden Maßnahmen zu helfen.

  • 00:10:00 Dr. Thomas Starke erörtert den Entscheidungsprozess beim Handel, bei dem es darum geht, auf der Grundlage verschiedener Indikatoren, die Aufschluss über den Zustand des Systems geben, zu entscheiden, ob man kauft, verkauft oder hält. Das Ziel besteht darin, die bestmögliche Belohnung zu erhalten, nämlich den Gewinn oder Verlust des Handels. Allerdings kann der traditionelle Ansatz des maschinellen Lernens, einem Staat eine bestimmte Bezeichnung zu geben, beispielsweise unmittelbaren Gewinn oder Verlust, zu falschen Bezeichnungen führen, wenn der Handel in unmittelbarer Zukunft gegen uns verläuft. Daher muss die Maschine verstehen, wann sie im Handel bleiben muss, auch wenn sie zunächst gegen uns läuft, und die Überzeugung haben, zu warten, bis der Handel wieder zur Durchschnittslinie zurückkehrt, um den Handel zu verlassen.

  • 00:15:00 Dr. Thomas Starke erörtert die rückwirkende Kennzeichnung und wie sie beim Reinforcement Learning eingesetzt wird, um die Schwierigkeit zu bewältigen, jeden Schritt im Gewinn und Verlust eines Handels zu kennzeichnen. Er erklärt, dass traditionelles maschinelles Lernen jeden Schritt im Handel kennzeichnet, was es schwierig macht, vorherzusagen, ob der Handel in Zukunft möglicherweise profitabel wird, wenn er einen Verlust erleidet. Bei der rückwirkenden Kennzeichnung wird die Bellman-Gleichung verwendet, um jeder Aktion und jedem Zustand einen Wert ungleich Null zuzuweisen, selbst wenn dadurch kein unmittelbarer Gewinn erzielt wird, was eine Rückkehr zum Mittelwert und einen eventuellen Gewinn ermöglicht.

  • 00:20:00 Dr. Thomas Starke erklärt, wie man mit Reinforcement Learning das Problem der verzögerten Befriedigung im Trading lösen kann. Zur Berechnung der Belohnung einer Aktion wird die Bellman-Gleichung verwendet, wobei „r“ für die unmittelbare Belohnung und „q“ für die kumulative Belohnung steht. Gamma ist ein Abzinsungsfaktor, der zukünftigen Ergebnissen im Vergleich zu früheren Ergebnissen Gewicht verleiht. Durch den Einsatz von Reinforcement Learning basieren Handelsentscheidungen nicht nur auf unmittelbaren Belohnungen, sondern auch auf dem Halten von Positionen für höhere zukünftige Belohnungen. Dies ermöglicht eine fundiertere Entscheidungsfindung im Vergleich zur gierigen Entscheidungsfindung.

  • 00:25:00 Dr. Thomas Starke erläutert, wie Deep Reinforcement Learning dabei helfen kann, Handelsentscheidungen auf der Grundlage zukünftiger Ergebnisse zu treffen. Beim traditionellen Reinforcement Learning werden Tabellen auf der Grundlage vergangener Erfahrungen erstellt. Im Handel wird dies jedoch aufgrund der großen Anzahl von Zuständen und Einflüssen komplex. Daher besteht die Lösung darin, Deep Reinforcement Learning und neuronale Netze zu verwenden, um diese Tabellen anzunähern, ohne eine riesige Tabelle zu erstellen. Er erklärt die Umsetzung der Gamifizierung des Handels und das Finden der richtigen Belohnungsfunktion und Eingaben zur Definition des Zustands. Insgesamt kann der Einsatz von Deep Reinforcement Learning bei der Entscheidungsfindung für den Handel hilfreich sein.

  • 00:30:00 In diesem Abschnitt erörtert Dr. Starke die Bedeutung von Eingaben im Handel und wie sie einen prädiktiven Wert haben müssen, sonst ist das System nicht in der Lage, gute Handelsentscheidungen zu treffen. Er betont die Notwendigkeit, das System auf bekanntes Verhalten zu testen und abhängig von der gewählten Belohnungsfunktion den geeigneten Typ, die Größe und die Kostenfunktion des neuronalen Netzwerks auszuwählen. Anschließend erklärt er, wie Gamification im Handel funktioniert, wo der Status historische und aktuelle Preise, technische Sicherheitsdaten und alternative Datenquellen sind und die Belohnung die Gewinne und Verluste des Handels sind. Der Verstärkungslerner wird die Bellman-Gleichung verwenden, um Beobachtungen rückwirkend zu kennzeichnen, und durch die ständige Aktualisierung von Tabellen, die durch neuronale Netze angenähert werden, wird die Maschine lernen, immer bessere Handelsentscheidungen zu treffen.

  • 00:35:00 In diesem Abschnitt erläutert Dr. Thomas Starke die Strukturierung der Preisreihen für Schulungen mithilfe von Reinforcement Learning. Er erklärt, dass man, anstatt die Preisreihe nacheinander durchzugehen, an verschiedenen Punkten zufällig ein- und aussteigen kann und es dem Benutzer überlassen bleibt, welche Methode er wählt. Er erörtert auch die Schwierigkeit, eine Belohnungsfunktion zu entwerfen, und stellt verschiedene Beispiele und Methoden zur Strukturierung einer Belohnungsfunktion bereit, die für das Training verwendet werden kann, z. B. die Verwendung reiner prozentualer Gewinne und Verluste, des Gewinns pro Tick, der Sharpe-Ratio und verschiedener Arten von Strafen Vermeiden Sie lange Transportzeiten oder Ausfallzeiten.

  • 00:40:00 Laut Dr. Thomas Starke haben wir viele Möglichkeiten, darunter offene, hohe, niedrige, Schluss- und Volumenwerte, Candlestick-Muster, technische Indikatoren wie der Relative-Stärke-Index, Tages-/Wochen-/Jahreszeit, verschiedene Zeitgranularitäten und Eingaben Preise und technische Indikatoren für andere Instrumente sowie alternative Daten wie Stimmung oder Satellitenbilder. Diese Eingaben werden dann in einen komplexen Zustand überführt, ähnlich wie ein Computerspiel Eingabefunktionen nutzt, um Entscheidungen zu treffen. Letztendlich liegt der Schlüssel darin, die richtige Belohnungsfunktion zu finden, die zu Ihrem Handelsstil passt, und Ihr System entsprechend zu optimieren.

  • 00:45:00 Dr. Thomas Starke erklärt die Testphase, die sein Reinforcement Learner durchlaufen muss, bevor er für den Handel auf den Finanzmärkten eingesetzt werden kann. Er wendet eine Reihe von Tests an, darunter saubere Sinuswellen, Trendkurven, zufällige Reihen ohne Struktur, verschiedene Arten von Ordnungskorrelationen, Rauschen in sauberen Testkurven und wiederkehrende Muster, um festzustellen, ob die Maschine konsistente Gewinne erzielt, und um Fehler in der Codierung zu finden . Er bespricht auch die verschiedenen Arten von neuronalen Netzen, die er verwendet, einschließlich Standard-, Faltungs- und Langzeitgedächtnis (LSTM), und seine Vorliebe für einfache neuronale Netze, da diese für seine Bedürfnisse ausreichen und keinen übermäßigen Rechenaufwand erfordern.

  • 00:50:00 In diesem Abschnitt diskutiert Dr. Thomas Starke die Herausforderungen des Handels mit Reinforcement Learning, einschließlich der Schwierigkeiten bei der Unterscheidung zwischen Signal und Rauschen und dem Problem lokaler Minima. Er zeigt, dass Verstärkungslernen bei verrauschten Finanzzeitreihen und dynamischen Finanzsystemen mit sich ändernden Regeln und Marktregimen Schwierigkeiten bereitet. Er zeigt jedoch auch, dass die Glättung der Preiskurve mit einem einfachen gleitenden Durchschnitt die Leistung der Reinforcement-Learning-Maschine erheblich verbessern kann und Einblicke in den Aufbau eines erfolgreichen Machine-Learning-Systems gibt, das profitable Handelsentscheidungen treffen kann.

  • 00:55:00 In diesem Abschnitt diskutiert Dr. Thomas Starke die Herausforderungen beim Einsatz von Reinforcement Learning für den Handel. Erstens fällt es dem verstärkenden Lernen schwer, sich an Veränderungen im Marktverhalten anzupassen, was es schwierig macht, neue Verhaltensweisen zu erlernen. Darüber hinaus werden viele Trainingsdaten benötigt, Marktdaten sind jedoch oft spärlich. Während Reinforcement Learning effizient ist, kann es leicht zu einer Überanpassung kommen und wirkt sich nur auf grundlegende Marktmuster aus. Der Aufbau komplexerer neuronaler Netze kann dieses Problem lösen, ist jedoch eine zeitaufwändige Aufgabe. Letztlich ist Reinforcement Learning kein Allheilmittel, um profitable Ergebnisse zu erzielen, und es ist wichtig, über gute Markterfahrung und domänenspezifisches Wissen zu verfügen, um erfolgreiche Handelsergebnisse zu erzielen. Dr. Starke hält einen Quant NC-Vortrag und ermutigt jeden, der sich für die Codierung dieser Systeme interessiert, sich mit gut formulierten Fragen an ihn auf LinkedIn zu wenden.

  • 01:00:00 Dr. Thomas Starke beantwortet verschiedene Fragen rund um den Handel mit Deep Reinforcement Learning. Er erklärt, dass die Bellman-Gleichung keinen Look-Ahead-Bias einführt und technische Indikatoren manchmal nach sorgfältiger Analyse als Eingaben verwendet werden können. Satellitenbilder könnten für die Vorhersage von Aktienkursen nützlich sein, und der Verstärkungshandel kann je nach Berechnungszeit des neuronalen Netzwerks in kleinen Zeitrahmen durchgeführt werden. Er erörtert auch, wie empfindlich Reinforcement-Trading-Algorithmen auf Marktanomalien reagieren, und erklärt, warum es keinen Sinn macht, Zufallsentscheidungsbäume mithilfe von Reinforcement Learning zu trainieren.

  • 01:05:00 In diesem Abschnitt empfiehlt Dr. Thomas Starke aufgrund ihrer Eignung für das Problem die Verwendung neuronaler Netze für den Handel anstelle von Entscheidungsbäumen oder Support-Vektor-Maschinen. Er erklärt, dass es wichtig ist, die Verlustfunktion basierend auf der verwendeten Belohnungsfunktion abzustimmen. Er erwähnt, dass Menschen versucht haben, Reinforcement Learning für den Hochfrequenzhandel zu nutzen, am Ende aber zu langsamen neuronalen Netzen gelangten, denen es an Reaktionsfähigkeit auf Echtzeitmärkten mangelte. Er weist darauf hin, dass der Erwerb von Marktkenntnissen wesentlich dazu beitragen wird, eine Handelskarriere in der Finanzbranche anzustreben, echte Geschäfte zu tätigen und dabei viel zu lernen. Abschließend erörtert er, ob man neuronale Netze nutzen kann, um beim Optionshandel gute Ergebnisse zu erzielen, und erläutert die Herausforderungen bei der Kombination neuronaler Netze und Optionshandel.

  • 01:10:00 In diesem Abschnitt erläutert Dr. Thomas Starke, wie Optionsdaten als Input für den Handel mit dem zugrunde liegenden Instrument verwendet werden können, anstatt sich nur auf technische Indikatoren zu verlassen. Er beantwortet auch Fragen zur Verwendung neuronaler Netze zur Entscheidung über die Anzahl der zu kaufenden oder zu verkaufenden Lots und zur Einbeziehung von Spread, Provision und Slippage in den Algorithmus, indem er ein Slippage-Modell erstellt und diese Faktoren in die Belohnungsfunktion einbezieht. Er rät zur Vorsicht bei der Verwendung neuronaler Netze zur Entscheidung über Handelsvolumina und empfiehlt die Verwendung von Ausgabewerten, um die Portfoliogewichte entsprechend zu dimensionieren. Abschließend dankt er dem Publikum für seine Fragen und für die Teilnahme an seinem Vortrag.
Machine Learning Trading | Trading with Deep Reinforcement Learning | Dr Thomas Starke
Machine Learning Trading | Trading with Deep Reinforcement Learning | Dr Thomas Starke
  • 2020.09.23
  • www.youtube.com
Dr. Thomas Starke Speaks on Machine Learning Trading with Deep Reinforcement Learning (DRL). In this captivating video, join Dr. Thomas Starke as he unravels...
 

Harrison Waldon (UT Austin): „The Algorithmic Learning Equations“


Harrison Waldon (UT Austin): „The Algorithmic Learning Equations“

Harrison Waldon, ein Forscher von der UT Austin, stellte seine Arbeit über algorithmische Kollusion auf Finanzmärkten vor und konzentrierte sich dabei auf die Interaktion und potenzielle Kollusion von Reinforcement Learning (RL)-Algorithmen. Er ging auf die Bedenken der Regulierungsbehörden hinsichtlich des autonomen algorithmischen Handels und seines Potenzials ein, die Preise durch Absprachen ohne explizite Kommunikation in die Höhe zu treiben.

Waldons Forschung zielte darauf ab, das Verhalten von RL-Algorithmen im Finanzumfeld zu verstehen und festzustellen, ob sie lernen können, Absprachen zu treffen. Er nutzte algorithmische Lerngleichungen (ALEs), um ein System gewöhnlicher Differentialgleichungen (ODEs) abzuleiten, die die Entwicklung von Algorithmen unter bestimmten Bedingungen annähern. Diese ALEs waren in der Lage, kollusives Verhalten in Q-Learning-Algorithmen zu validieren und lieferten eine gute Annäherung an die Algorithmenentwicklung, was eine große Anziehungskraft für kollusive Ergebnisse demonstrierte.

Es gibt jedoch Herausforderungen bei der Berechnung der stationären Verteilung und der Unterscheidung zwischen echter Absprache und rationalem selbsterhaltendem Verhalten. Bei der Bestimmung der stationären Verteilung treten numerische Schwierigkeiten auf, und es bleibt eine Herausforderung, echte Absprachen von eigennützigem Verhalten zu unterscheiden.

Waldon betonte die Grenzen des statischen Spielgleichgewichts bei der Anwendung auf dynamische Interaktionen und betonte die Notwendigkeit eines umfassenden Ansatzes zur Verhaltensregulierung. Kollusives Verhalten, das durch Algorithmen ohne direkte Kommunikation zwischen den Parteien ermöglicht wird, erfordert sorgfältige Überlegungen. Der Vortrag endete damit, dass Waldon den Teilnehmern seinen Dank ausdrückte und damit den Abschluss der Frühjahrssemesterreihe markierte.

  • 00:00:00 In diesem Abschnitt diskutiert Harrison Walden von der UT Austin seine jüngsten Arbeiten zur algorithmischen Absprache in der Finanzbranche. Er weist darauf hin, dass die meisten Geschäfte auf elektronischen Märkten von Algorithmen ausgeführt werden, von denen viele Techniken des maschinellen Lernens wie Reinforcement Learning (RL) nutzen, um Handelsstrategien zu erlernen. Während RL bei der umfassenden Absicherung und optimalen Ausführung praktische Erfolge erzielt hat, haben die Regulierungsbehörden Bedenken geäußert, dass Unternehmen sich auf völlig autonomen algorithmischen Handel verlassen, da dies ohne explizite Kommunikation zu Aufgabenabsprachen und überhöhten Preisen auf dem Markt führen kann. Waldens Arbeit zielt darauf ab, Werkzeuge zur Untersuchung algorithmischer Absprachen und ihrer möglichen Auswirkungen auf die Finanzindustrie bereitzustellen.

  • 00:05:00 In diesem Abschnitt diskutiert Harrison Waldon die Grenzen bestehender Studien zum Verhalten von Reinforcement-Learning-Algorithmen im Finanzumfeld. Während einige experimentelle Beweise zeigen, dass bestimmte Reinforcement-Learning-Algorithmen in bestimmten Szenarien komplexe kollusive Strategien erlernen können, mangelt es solchen Experimenten an theoretischer Genauigkeit. Darüber hinaus ist die mangelnde Erklärbarkeit von RL-Algorithmen ein Problem für Organisationen wie das AFM, insbesondere in Umgebungen mit mehreren Agenten und instationären Umgebungen wie Finanzmärkten. Die Hauptfragen, die Waldons Arbeit vorantreiben, sind: Wie können wir das Verhalten interagierender Reinforcement-Learning-Algorithmen im Finanzumfeld verstehen und können diese Algorithmen nachweislich lernen, zusammenzuarbeiten?

  • 00:10:00 In diesem Abschnitt erklärt Harrison Waldon, dass beim Reinforcement Learning (RL) die Funktion F oder die Lernregel alte Parameterwerte, den aktuellen Zustand, die aktuelle Aktion und möglicherweise den nachfolgenden Zustand übernimmt, um die Informationen zu integrieren ein neuer Parametersatz. Das Ziel besteht darin, eine Reihe von Parametern zu finden, die der optimalen Richtlinie nahe kommen. Ein beliebter Algorithmus in RL ist das asynchrone tabellarische Q-Learning, das jedem Zustands-Aktionspaar einen Parameterwert zuordnet und diese auf asynchrone Weise aktualisiert. Q-Learning funktioniert gut in Einzelagentenumgebungen, wird jedoch in Umgebungen mit mehreren Agenten und instationären Umgebungen, wie sie auf Märkten üblich sind, schwieriger. Der Zustandsraum im Finanzwesen wird als Vektor der von anderen Agenten veröffentlichten Preise definiert, wobei der Aktionsraum das Kaufen, Verkaufen oder Halten umfassen kann.

  • 00:15:00 In diesem Abschnitt erfahren wir, dass eine interessante Erkenntnis in der Arbeit des Teams darin besteht, dass Algorithmen den Sunspot-Handel erlernen können, wenn sie beginnen, sich auf irrelevante Marktfaktoren zu konditionieren. Der Referent erklärt, wie sich Q-Learning in der Interaktion mit anderen Q-Lernenden verhält und definiert das Multi-Agenten-Analogon eines Markov-Entscheidungsprozesses als stochastisches Spiel. Sie diskutieren, wie Agenten im Laufe der Zeit lernen und ihre Richtlinien anpassen, wodurch die wahre Dynamik des Zustandsprozesses instationär wird, auch wenn die Übergangsfunktion möglicherweise festgelegt ist. Das Hauptbeispiel des Vortrags ist das Gefangenendilemma, interpretiert als stilisierter Markt mit zwei konkurrierenden Liquiditätsanbietern.

  • 00:20:00 Verständnis des Verhaltens von Algorithmen. Lernen, ein wiederholtes Gefangenendilemma-Spiel mit anderen mit Algorithmen ausgestatteten Spielern zu spielen. Um dies zu erreichen, muss dem Zustandsprozess eine Zustandsvorstellung gegeben werden, und das System, zu dem wir gelangen, wird als algorithmische Lerngleichungen bezeichnet. Um dieses System abzuleiten, verwenden sie die Ode-Methode der stochastischen Näherung, um die Entwicklung von Parametern zu approximieren und so eine direkte Analyse der Richtlinien zu ermöglichen. Obwohl dieses Modell Einschränkungen aufweist, sind die vorgestellten Tools allgemeiner Natur und können diese Einschränkungen beheben.

  • 00:25:00 In diesem Abschnitt diskutiert Harrison Waldon die algorithmischen Lerngleichungen, die die Entwicklung von Parametern mithilfe der klassischen stochastischen Näherung und einer ODE approximieren. Indem sie die Lernregel in Bezug auf die stationäre Verteilung konditionieren und feste Parameter induzieren, leiten sie ein System von ODEs ab, die den Lernalgorithmus nachahmen. Diese algorithmischen Lerngleichungen können die Entwicklung des Algorithmus unter bestimmten Bedingungen wie nicht entarteten Lernraten und Kompaktheit der Parameter annähern. Die stationäre Verteilung und die Richtlinien sind Lipschitz-stetig, was sich ebenfalls als entscheidend erweist. Die verwendete stochastische Näherung ist aufgrund des instationären Prozesses mit wechselnder Dynamik notwendig.

  • 00:30:00 In diesem Abschnitt diskutiert Harrison Waldon die algorithmischen Lerngleichungen und ihre Eigenschaften. Das im Video besprochene Q-Learning-Beispiel erfüllt alle Eigenschaften dieser Gleichungen, einschließlich der Aufrechterhaltung von Parametern in einem kompakten Satz, ergodischer Markov-Ketten, Lipschitz-Kontinuität in Richtlinien und Lernregeln. Waldon zeigt, dass der Algorithmus bei geeigneter Zeitskalierung für jeden endlichen Zeithorizont mit hoher Wahrscheinlichkeit nahe an den Lösungen der ODE liegt und fast sicher zu lokal asymptotisch stabilen Lösungen konvergiert, wenn die Lernrate schnell genug abnimmt. Abschließend validiert Waldon diese Gleichungen, indem er sie mithilfe von Q-Learning und Softmax-Aktionsauswahl auf das wiederholte Gefangenendilemma anwendet.

  • 00:35:00 In diesem Abschnitt werden die Bedingungen diskutiert, die erforderlich sind, damit die algorithmische Lerngleichung die Entwicklung der Algorithmen annähern kann. Die Zustandsprozessbedingung für Ergodizität ist für dieses Szenario sofort erfüllt, da es nur einen Zustand gibt. Trajektorien des Lernalgorithmus werden sowohl mit großen als auch mit kleinen Lernraten simuliert, was zeigt, dass die Approximation durch die algorithmische Lerngleichung bei kleinen Lernraten gut ist. Die ALEs sind auch nützlich bei der Analyse der Wahrscheinlichkeit eines kollusiven Ergebnisses, wobei ein großer Anziehungspunkt zu einem solchen Ergebnis führt. Im nächsten Teil des Videos erhält jeder Agent die Möglichkeit, seine Spreads an die Spreads seines Gegners aus der vorherigen Periode anzupassen.

  • 00:40:00 In diesem Abschnitt des Videos erklärt Harrison Waldon die Wahrscheinlichkeit, eine bestimmte Aktion abzuspielen, und die Geräuschquelle in den Simulationen, die sie analysieren. Er erörtert den ergotischen Zustandsprozess, die stationäre Verteilung von Richtlinien und wie die Komponenten der Richtlinien jedes Agenten im Hinblick auf die Bestrafung zu interpretieren sind, um die Häufigkeit zu untersuchen, mit der eine Reihe von Richtlinien das kollusive Ergebnis hervorrufen. Er liefert außerdem Diagramme der algorithmischen Lerngleichungen für zustandsabhängiges Q-Lernen für eine Reihe von Anfangsbedingungen, bis die Trajektorie numerisch konvergiert.

  • 00:45:00 In diesem Abschnitt des Videos diskutiert Harrison Waldon die Ergebnisse der Verwendung von Q-Learning mit den algorithmischen Lerngleichungen zum Erlernen von Kollusionsverhalten in stochastischen Spielen. Die Agenten konnten fast zu 100 % lernen, kollusive Spreads zu spielen, auch wenn sie nicht mit hohen Kollusionswahrscheinlichkeiten begannen. Die Ergebnisse zeigten auch eine große Anziehungskraft für das kollusive Ergebnis, aber auch unerwartete Verhaltensweisen wie das Hin- und Herwechseln zwischen kollusiven und konkurrierenden Ergebnissen. Die in dieser Studie verwendete Methodik lieferte minimal restriktive ausreichende Bedingungen, die es ermöglichten, das Verhalten einer breiten Klasse zustandsabhängiger Verstärkungslernalgorithmen anzunähern. Aufgrund numerischer Schwierigkeiten bei der Berechnung der stationären Verteilung gab es jedoch einige Einschränkungen. Insgesamt war Q-Learning beim Erlernen kollusiven Verhaltens in diesen stochastischen Spielen erfolgreich.

  • 00:50:00 In diesem Abschnitt erklärt Harrison Waldon, wie man garantiert, dass die algorithmischen Lerngleichungen das asymptotische Verhalten des Algorithmus annähern, indem man die Existenz einer Lyapunov-Funktion nachweist, was aufgrund der Notwendigkeit, mit der stationären Verteilung umzugehen, schwierig ist. Um dieses Problem anzugehen, führt Waldon einen neuen Algorithmus ein, der eine Verallgemeinerung des klassischen fiktiven Spiels namens State Dependent Smooth Fictitious Play darstellt. Dieser Algorithmus geht davon aus, dass alle Agenten in einem System nach festen Richtlinien spielen und die Überzeugungen dieser Strategien über die empirische Häufigkeit des Spiels gebildet werden. Der Algorithmus fügt dem System etwas Zufälligkeit hinzu und ergreift Maßnahmen gemäß einer Soft-Max-Verteilung, um die Probleme deterministischer Lernregeln zu umgehen.

  • 00:55:00 In diesem Abschnitt erklärt Harrison Waldon, dass die algorithmischen Lerngleichungen verwendet werden können, um ein kontinuierliches Zeitsystem zu analysieren und sicherzustellen, dass der Algorithmus für ein reibungsloses fiktives Spiel an Ruhepunkte des Systems konvergiert, wobei es sich bei einigen davon möglicherweise um kollusive Strategien handelt . Mit zunehmendem Abzinsungsfaktor steigt die Wahrscheinlichkeit, kollusive Ergebnisse zu erfahren. Waldon erörtert auch die Notwendigkeit einer realistischeren Marktdynamik und die Möglichkeit, algorithmische Lerngleichungen auf tiefgreifende Reinforcement-Learning-Algorithmen zur Untersuchung von Gleichgewichten und Preisen anzuwenden. Schließlich erkennt er die Schwierigkeit der Erkennung von Absprachen und die Herausforderung an, zwischen echter Absprache und rationalem, selbsterhaltendem Verhalten zu unterscheiden.

  • 01:00:00 In diesem Abschnitt diskutiert Harrison Waldon, wie das Gleichgewicht eines statischen Spiels eine enge Widerspiegelung der Realität der dynamischen Interaktion zwischen Menschen ist. Er betont die Notwendigkeit eines ganzheitlichen Ansatzes bei der Überlegung, welches Gleichgewichtsverhalten reguliert werden soll, insbesondere im Hinblick auf kollusives Verhalten, das als rational angesehen werden kann und durch Algorithmen ohne direkte Kommunikation zwischen den Parteien zustande kommt. Die Sitzung endet damit, dass Waldon sich bei den Teilnehmern bedankt und die Frühjahrssemesterreihe abschließt.
Harrison Waldon (UT Austin): "The Algorithmic Learning Equations"
Harrison Waldon (UT Austin): "The Algorithmic Learning Equations"
  • 2023.04.26
  • www.youtube.com
Abstract: Recently there has been concern among regulators and legal theorists about the possibility that pricing algorithms can learn to collude with one a...
 

Irene Aldridge (AbleBlox und AbleMarkets): „Krypto-Ökosystem und AMM-Design“



Irene Aldridge (AbleBlox und AbleMarkets): „Krypto-Ökosystem und AMM-Design“

Irene Aldridge, Gründerin und Geschäftsführerin von AbleMarkets, befasst sich mit verschiedenen Aspekten der Blockchain-Technologie, dem automatisierten Market Making (AMM) und der Konvergenz traditioneller Märkte mit der Welt der AMMs. Sie betont die Bedeutung dieser Themen im Finanzwesen und untersucht mögliche Herausforderungen und damit verbundene Lösungen.

Aldridge gibt zunächst einen Überblick über ihren Hintergrund in der Finanzbranche und ihr Fachwissen im Bereich Mikrostruktur, das sich auf das Verständnis von Marktvorgängen konzentriert. Sie hebt die zunehmende Akzeptanz automatisierter Market-Making-Modelle hervor, die zunächst auf dem Kryptomarkt vorherrschend waren, sich aber mittlerweile auf traditionelle Märkte ausgeweitet haben. Sie skizziert die Struktur ihrer Präsentation, die einführende Blockchain-Konzepte, die Anwendung von Blockchain in Finanzen und Programmierung sowie reale Fallstudien zum Market Making und seinen Auswirkungen auf traditionelle Märkte umfasst.

Aldridge erforscht die Blockchain-Technologie und beschreibt sie als eine fortschrittliche Datenbank, in der jede Zeile eine kryptografische Zusammenfassung der vorherigen Zeile enthält und so die Datenintegrität gewährleistet. Sie erklärt den Mining-Prozess der Blockchain, bei dem vorgeschlagene Inhalte validiert und der Kette hinzugefügt werden, was zu mehr Transparenz und Dezentralisierung bei Papierkram und Zahlungssystemen führt.

Aldridge erörtert den Wandel hin zur Dezentralisierung im Krypto-Ökosystem und hebt den Kompromiss zwischen Datenschutz und der Robustheit mehrerer Kopien der Datenbank auf Servern hervor. Sie erklärt den Blockchain-Prozess, von der Definition von Blöcken und der Erstellung kryptografischer Signaturen bis hin zu den Kerninnovationen Proof of Work und Mining, die Sicherheit vor Hacking-Versuchen gewährleisten.

Aldridge erkennt jedoch die Herausforderungen an, die mit dem Proof-of-Work-Mining-System verbunden sind, darunter die steigenden Kosten des Bergbaus, eine sinkende Zahl von Bergleuten und potenzielle Schwachstellen. Sie hebt alternative Lösungen hervor, wie die Blockaggregation von Ethereum und die Beseitigung von Rätseln durch Coinbase für das Mining.

Der Redner befasst sich dann mit dem Stakeholder-Einsatz im Krypto-Ökosystem, bei dem Stakeholder ihre Gelder zur Unterstützung des Netzwerkbetriebs bereitstellen. Sie erkennt das potenzielle Problem an, dass Krypto-Oligarchen den Markt manipulieren, und erklärt, wie Off-Chain-Validierung und automatisiertes Market-Making implementiert wurden, um diesem Problem entgegenzuwirken. Aldridge betont, wie wichtig es ist, diese Konzepte zu verstehen, um die Bedeutung des automatisierten Market Making für die Verhinderung von Manipulationen auf dem Kryptomarkt zu verstehen.

Aldridge befasst sich mit den Prinzipien hinter Automated Market Makers (AMMs) und betont deren revolutionären Einfluss auf den Handel mit Kryptowährungen. Sie erklärt, wie AMM-Kurven, die von liquiditätsbezogenen Invarianten geprägt sind, Preise basierend auf dem verbleibenden Bestand im Liquiditätspool bestimmen. Sie hebt die Vorteile von AMMs hervor, einschließlich 24/7-Liquidität, formelbasierter Slippage-Schätzung und Bestimmung des beizulegenden Zeitwerts durch konvexe Kurven. Sie erwähnt jedoch auch, dass AMMs unter volatilen Bedingungen Verluste erleiden können, was zur Einführung von Transaktionsgebühren führt.

Aldridge vergleicht AMMs mit traditionellen Märkten und erörtert die Vorteile der automatisierten Marktgestaltung, wie z. B. kontinuierliche Liquidität, vorhersehbare Slippage und Ermittlung des beizulegenden Zeitwerts. Sie erklärt die von UniSwap angewandte Methode des kontinuierlichen Produktmarketings und veranschaulicht, wie Ausführungsmakler Plattformen für Liquidität und Ausführung auf der Grundlage parametrisierter Daten auswählen können.

Der Referent geht auf die Berechnung von Volumenänderungen und die Unterscheidung zwischen öffentlichen und privaten Liquiditätspools ein. Sie präsentiert empirische Beispiele mit Bitcoin und Ethereum von verschiedenen Börsen, weist auf Unterschiede in ihren Kurven hin und weist auf mögliche Bedenken bei bestimmten Plattformen hin.

Aldridge betont, wie wichtig es ist, AMM-Kurven mit konvexen Formen zu entwerfen, um Marktstabilität zu gewährleisten. Sie erklärt die Rolle von Liquiditätsanbietern und Händlern im System und wie sie von Transaktionsgebühren profitieren. Sie weist auch auf die Möglichkeit hin, dass AMM-Systeme in traditionellen Märkten eingesetzt werden könnten, was dazu führt, dass ihre Anwendung auf Vermögenswerte wie IBM-Aktien in Betracht gezogen wird.

Aldridge untersucht die Konvergenz traditioneller Märkte mit automatisiertem Market Making und stellt fest, dass traditionelle Market Maker bereits ähnliche Systeme implementieren. Sie hebt die erwarteten Veränderungen bei Marktinteraktionen, Handelsstrategien, Ausführungsmethoden und Transparenz hervor. Der Einfluss automatisierter Market Maker auf die Mikrostruktur in den Märkten wird ebenfalls diskutiert.

Aldridge geht auf die Machbarkeit der Implementierung automatisierter Liquidität in 24/7-Handelsumgebungen wie dem Kryptomarkt ein und erklärt, dass automatisiertes Market-Making die mit traditionellen Market-Making-Methoden verbundenen Risiken beseitigen kann und dass die Technologie leicht verfügbar ist. Sie warnt jedoch davor, dass nicht alle Krypto-Börsen automatisiertes Market-Making nutzen, und betont den Forschungsbedarf, um Risikomanagement und externe Effekte zu berücksichtigen. Aldridge weist darauf hin, dass die automatisierte Market-Making-Technologie etwa zeitgleich mit Kryptowährungen wie Bitcoin im Jahr 2002 entstand.

Auf die Frage nach dem potenziellen unfairen Vorteil, den automatisierte Market-Making-Händler beim Zugriff auf private Informationen haben, räumt Aldridge ein, dass dies ein Problem darstellt. Sie schlägt jedoch vor, dass das Durchsuchen und Quantifizieren der automatisierten Market-Making-Kurve über verschiedene Plattformen hinweg dazu beitragen kann, dieses Problem zu mildern. Sie weist darauf hin, dass Bergleute einen Anreiz haben, ihre Arbeit fortzusetzen, da sie diejenigen sind, die vom Zugriff auf und der Validierung von Auftragsblöcken profitieren. Dennoch wird es ohne einen privaten Anreiz immer schwieriger, in diesem Bereich Gewinne zu erwirtschaften, was zur Bildung von Oligopolen führt. Aldridge schlägt vor, dass Versicherungen als natürlicher Anreiz für Bergleute dienen könnten, nahezu umsonst zu arbeiten. Allerdings betrachten Versicherungsunternehmen Blockchain als große Bedrohung für ihre Branche, was zu Widerstand gegen solche Systemdesigns führt. Sie geht auch auf die Möglichkeit von Betrugsversuchen ein und weist auf mögliche Manipulationen in der IBM-Kurve hin.

Im Zusammenhang mit zentralisierten Limit-Orderbüchern erklärt Aldridge, wie Marktteilnehmer automatisierte Market-Making-Modelle wie AMMs nutzen, die auf kostengünstige und automatisierte Weise Liquidität bereitstellen und möglicherweise zu Gewinnen führen. Die Unterscheidung zwischen Händlern, die AMMs verwenden, und Händlern, die manuell Limit-Orders aufgeben, bleibt jedoch eine Herausforderung. Aldridge schlägt vor, dass die Identifizierung böswilliger Benutzer durch mikrostrukturelle Datenanalyse eine mögliche Lösung darstellen könnte. Sie glaubt, dass ein effizienteres und schlankeres Modell entstehen wird, wenn AMMs weiterhin den Markt dominieren.

Zusammenfassend deckt die Diskussion von Irene Aldridge verschiedene Aspekte der Blockchain-Technologie, der automatisierten Marktgestaltung und der Konvergenz traditioneller Märkte mit der AMM-Welt ab. Sie erforscht die Grundlagen der Blockchain, diskutiert die Herausforderungen und möglichen Lösungen im Zusammenhang mit Proof-of-Work-Mining-Systemen und hebt die Vorteile von AMMs gegenüber traditionellen Märkten hervor. Aldridge geht auch auf Bedenken hinsichtlich der Machbarkeit der Implementierung automatisierter Liquidität, des Problems des Zugriffs automatisierter Market-Making-Händler auf private Informationen und der möglichen Rolle von Versicherungen als Anreiz für Bergleute ein. Durch ihre Erkenntnisse bietet sie wertvolle Perspektiven auf die aktuelle Landschaft und zukünftige Möglichkeiten in der Welt des Finanzwesens und des automatisierten Market Making.

  • 00:00:00 In diesem Abschnitt bespricht Irene Aldridge ihren Hintergrund in der Finanzbranche und ihr Interesse an der Mikrostruktur, die sich auf die Funktionsweise von Märkten konzentriert. Anschließend stellt sie das Thema des automatisierten Market Making vor und erklärt, wie es seinen Ursprung im Kryptomarkt hat, nun aber auch in traditionellen Märkten eingesetzt wird. Sie gibt einen Überblick über die Präsentation, die eine Einführung in Blockchain 101, Blockchain-Anwendungen im Finanzwesen, Programmierung und Fallstudien zur Marktgestaltung in der Praxis und ihren Auswirkungen auf traditionelle Märkte umfasst. Aldridge hat einen Hintergrund in der Elektrotechnik und war in verschiedenen Bereichen der Finanzbranche tätig, darunter Handel, Risikomanagement und Forschung.

  • 00:05:00 In diesem Abschnitt erklärt Irene Aldridge die Grundlagen der Blockchain-Technologie. Sie beschreibt es als eine ausgefallene Datenbank, in der jede Zeile eine kryptografische Zusammenfassung der vorherigen Zeile enthält, was es rechnerisch schwierig macht, vorherige Daten zu ändern. Darüber hinaus erörtert sie den Mining-Prozess der Blockchain und wie es darum geht, den vorgeschlagenen Inhalt eines Blocks zu untersuchen und ihn im Gedächtnis zu speichern. Aldridge glaubt, dass Blockchain dazu beitragen kann, Papierkram und Zahlungen auf Blockchain zu verlagern und so mehr Transparenz und Dezentralisierung zu ermöglichen.

  • 00:10:00 In diesem Abschnitt diskutiert Irene Aldridge den Übergang zu einem dezentralen Modell im Krypto-Ökosystem, bei dem Transaktionen öffentlich sind und auf mehreren Servern gespeichert werden, anstatt zentral auf einem Oracle-Server. Während dies bedeutet, dass die Privatsphäre geopfert wird, wird die erhöhte Robustheit durch mehrere Kopien der Datenbank auf Servern als fairer Kompromiss angesehen. Aldridge erklärt, dass der Blockchain-Prozess relativ einfach ist. Er beginnt mit der Definition eines Blocks und der Erstellung einer Kryptosignatur oder eines Hashs, der dann im nächsten Block codiert wird. Anschließend werden die Kerninnovationen der Proof-of-Work- und Mining-Verfahren diskutiert, mit dem Ziel, die Sicherheit vor Hacking-Versuchen zu gewährleisten, indem der Rechenaufwand für die Neuberechnung der Kette zu groß wird.

  • 00:15:00 In diesem Abschnitt erörtert Irene Aldridge die Probleme, die das Proof-of-Work-Mining-System in Kryptowährungen plagen. Sie erklärt, dass die Kosten des Bergbaus für die meisten Menschen zu hoch werden, was zu einem Gleichgewicht führt, bei dem sich nur eine bestimmte Gruppe von Personen die Kosten leisten kann und der Rest nicht abbauen kann. Darüber hinaus nimmt die Zahl der Miner mit der Zeit ab, was das System anfällig für potenzielle Hacks macht. Die Stärke des dezentralen Modells besteht darin, dass die längste Kette automatisch von der Kern-Engine ausgewählt wird, wodurch verhindert wird, dass Betrüger aufholen und gehackte Blöcke in das System einschleusen. Allerdings gibt es wachsende Bedenken hinsichtlich des Proof-of-Work-Systems, einschließlich Fragen, die zwischen Minern, die handeln und abbauen, von Interesse sind, und der Zeit, die zum Mining von Blöcken benötigt wird. Mittlerweile werden neue Lösungen entwickelt, wie zum Beispiel die Aggregation von Blöcken alle 12 Sekunden durch Ethereum und die Entscheidung von Coinbase, die Leute nicht mehr zum Lösen von Rätseln zum Schürfen zu verpflichten.

  • 00:20:00 In diesem Abschnitt erörtert der Redner den Prozess des Absteckens im Krypto-Ökosystem, bei dem Geld in das System gesteckt wird, um es zu schürfen. Stakeholder können ihren Anteil oder ihre Sicherheiten für einen bestimmten Zeitraum sperren und bei betrügerischen Aktivitäten mit ihrem Anteil bezahlen. Dadurch entsteht jedoch ein Oligopol von Krypto-Oligarchen, die den Markt manipulieren. Um dem entgegenzuwirken, wurden Off-Chain-Validierung und automatisiertes Market-Making eingesetzt. Letzteres ist im Krypto-Ökosystem immer beliebter geworden und verfügt über verschiedene Open-Source-Produkte, auf die jeder zugreifen kann, was das Verständnis erleichtert. Der Redner betont, dass das Verständnis der Hintergrundinformationen wie Absteckung und Off-Chain-Validierung unerlässlich ist, um die Bedeutung der automatisierten Marktgestaltung und ihre Funktionsweise zur Verhinderung von Manipulationen auf dem Kryptomarkt zu verstehen.

  • 00:25:00 In diesem Abschnitt diskutiert Irene Aldridge die Prinzipien hinter verschiedenen Automated Market Makers (AMMs), die die Welt des Kryptowährungshandels revolutioniert haben. Sie erklärt, dass AMM-Kurven, die sich in Krümmung und Versatz unterscheiden, durch eine mit der Liquidität verbundene Invariante geformt werden und dass der Preis die Funktion des verbleibenden Bestands im Liquiditätspool ist. Ein Vorteil von AMMs besteht darin, dass sie rund um die Uhr ohne Spread handeln können, da es keine Geld-Brief-Spannen gibt, und dass sie sich automatisch an sich ändernde Marktbedingungen anpassen können. Allerdings können AMMs unter volatilen Bedingungen Geld verlieren, weshalb sie Transaktionsgebühren erheben, die auf traditionellen Märkten nicht anfallen.

  • 00:30:00 In diesem Abschnitt diskutiert Irene Aldridge das automatisierte Market Making (AMM) und seine Vorteile gegenüber traditionellen Märkten, wie z. B. kontinuierliche Liquidität rund um die Uhr, formelhafte Slippage, die im Voraus geschätzt werden kann, und fairer Wert durch den Einsatz von eine konvexe Kurve. Aldridge erklärt die vom beliebten System UniSwap verwendete Market-Making-Methode für konstante Produkte, die einer konvexen Kurve zwischen Nummer eins und Nummer zwei folgt. Durch das Sammeln von Daten von verschiedenen Börsen und deren Parametrisierung auf der Grundlage dieser konstanten Produktmethode zeigt Aldridge auf, wie Ausführungsmakler bestimmen können, welche Plattformen für Liquidität und Ausführung ausgewählt werden sollen.

  • 00:35:00 In diesem Abschnitt diskutiert Irene Aldridge die Berechnung der jeweiligen Volumen- und Währungsänderungen und simuliert eine sehr einfache Simulation unter Verwendung der Girl-Tick-Regel aus der Mikrostruktur, um zu bestimmen, ob es sich bei dem Volumen um einen Kauf oder Verkauf handelt. Sie erklärt auch die beiden Arten von Liquiditätspools, öffentliche und private, und die Arbitrage, die zwischen ihnen stattfindet, und betont, dass es auf ausreichend liquiden Plattformen keinen Unterschied zwischen ihnen geben sollte. Aldridge präsentiert dann empirische Beispiele für die Verwendung von Bitcoin und Ethereum von verschiedenen Börsen wie Bitfinex und Bitstamp und hebt deren Kurven hervor. Er weist darauf hin, dass FTX nichts mit dem zu tun hat, was wir aus der Perspektive eines automatisierten Market-Makings erwarten würden, und legt nahe, dass es sich möglicherweise um ein Schneeballsystem gehandelt hat Schema die ganze Zeit.

  • 00:40:00 In diesem Abschnitt diskutiert Irene Aldridge das Design von AMM-Kurven (Automated Market Making) und vergleicht sie mit Beispielen verschiedener Kryptowährungsbörsen. Sie betont die Bedeutung der Verwendung konvexer Kurven im AMM-Design, um Marktstabilität zu gewährleisten und drastische Preiserhöhungen beim Aufkauf von Lagerbeständen zu vermeiden. Darüber hinaus erläutert sie die Rolle von Liquiditätsanbietern und Händlern im System und wie sie von den Transaktionsgebühren profitieren. Aldridge erwähnt auch Gerüchte über den Einsatz von AMM-Systemen in traditionellen Märkten und betont die Notwendigkeit, darüber nachzudenken, wie dieses Design für Produkte wie IBM-Aktien funktionieren würde.

  • 00:45:00 In diesem Abschnitt diskutiert Irene Aldridge die Konvergenz traditioneller Märkte und der Welt des automatisierten Market-Making, in der traditionelle Market-Maker bereits ähnliche Systeme einsetzen. Sie weist darauf hin, dass viele Veränderungen in der Art und Weise zu erwarten sind, wie Einzelpersonen mit den Märkten interagieren, wie Schulungsstrategien entwickelt werden, wie die Umsetzung erfolgt und wie transparent alles wird. Sie weist außerdem darauf hin, dass sich die Mikrostruktur der Märkte durch den Einfluss automatisierter Market Maker verändert. Irene vermittelt ein grundlegendes Verständnis dafür, wie die täglichen IBM-Daten zur Schätzung von AMM-Kurven verwendet werden und wie detailliertere Daten es einfacher machen würden, sauberere Schätzungen zu erhalten.

  • 00:50:00 In diesem Abschnitt diskutiert Irene Aldridge die Machbarkeit der Implementierung automatisierter Liquidität in 24/7-Handelsumgebungen wie dem Kryptomarkt, wo traditionelle Market-Making-Methoden möglicherweise nicht so effektiv sind. Sie erklärt, dass automatisiertes Market-Making die mit traditionellen Market-Making-Methoden verbundenen Risiken beseitigen kann und dass die Technologie weithin verfügbar ist. Sie warnt jedoch davor, dass nicht alle Krypto-Börsen automatisiertes Market-Making nutzen und dass Forschung erforderlich ist, um Risikomanagement und externe Effekte anzugehen. Sie weist auch darauf hin, dass es diese Technologie seit 2002 gibt und mit der Entstehung von Kryptowährungen wie Bitcoin zusammenfällt. Auf die Frage nach dem potenziellen unfairen Vorteil, den automatisierte Market-Making-Händler beim Zugriff auf private Informationen haben, stellt Aldridge fest, dass dies ein offenes Problem sei, das weiterer Forschung bedarf.

  • 00:55:00 In diesem Abschnitt diskutiert Irene Aldridge, wie AMM-Händler oder diejenigen, die Münzen nehmen und automatisierte Market-Making-Systeme (AMMs) verwenden, den Auftragsfluss vor anderen sehen, was ein Problem darstellt. Da jedoch viele Plattformen verfügbar sind, kann das Durchsuchen und Quantifizieren der automatisierten Market-Making-Kurve dazu beitragen, dieses Problem zu mildern. Irene weist außerdem darauf hin, dass die Miner aufgrund dieses Problems motiviert sind, weiterzumachen, da nur sie von der Prüfung und Validierung von Auftragsblöcken profitieren. Ohne private Anreize wird es jedoch immer schwieriger, in diesem Bereich Geld zu verdienen, was zur Bildung von Oligopolen führt. Irene schlägt vor, dass Versicherungen ein natürlicher Anreiz für Bergleute sein könnten, davon zu profitieren und nahezu kostenlos zu arbeiten. Da Versicherungen die Blockchain jedoch als große Bedrohung für ihre Existenz ansehen, gibt es Widerstand gegen eine solche Systemgestaltung. Abschließend beantwortet Irene eine Frage zur Möglichkeit eines Betrugsplans und stellt fest, dass es einen solchen in der IBM-Kurve geben könnte, bei dem man argumentieren könnte, dass der Boden manipuliert wird.

  • 01:00:00 In diesem Abschnitt diskutiert Irene Aldridge den Einsatz automatisierter Market-Making-Modelle in zentralisierten Limit-Orderbüchern. Marktteilnehmer nutzen ihre eigenen AMMs, da diese kostengünstig und automatisiert sind und dem Markt Liquidität mit Gewinnpotenzial bieten. Dennoch ist es derzeit schwierig, zwischen Händlern, die ein AMM nutzen, und Händlern, die Limit-Orders manuell erteilen, zu unterscheiden. Aldridge weist darauf hin, dass die Identifizierung böswilliger Akteure anhand der Mikrostrukturdaten ein offenes Problem sein könnte, aber wenn AMMs weiterhin den Markt dominieren, wird ein schlankeres Modell entstehen.
Irene Aldridge (AbleBlox and AbleMarkets): "Crypto Ecosystem and AMM Design"
Irene Aldridge (AbleBlox and AbleMarkets): "Crypto Ecosystem and AMM Design"
  • 2023.03.29
  • www.youtube.com
Abstract: Assets on blockchain trade 24x7 with very thin liquidity. This demands new fully automated processes, including Automated Market Making (AMM). We d...
 

Agostino Capponi (Kolumbien): „Mindern private Transaktionspools das Frontrunning-Risiko?“


Agostino Capponi (Kolumbien): „Mindern private Transaktionspools das Frontrunning-Risiko?“

Agostino Capponi, ein Forscher der Columbia University, befasst sich intensiv mit der Frage des Front-Runnings bei dezentralen Börsen und schlägt private Transaktionspools als mögliche Lösung vor. Diese privaten Pools arbeiten außerhalb der Kette und getrennt vom öffentlichen Pool, um sicherzustellen, dass Validatoren, die sich dazu verpflichten, sich nicht an der Spitze zu engagieren, mit ihnen umgehen. Capponi räumt jedoch ein, dass die Verwendung privater Pools ein Ausführungsrisiko birgt, da nicht alle Validatoren am privaten Pool teilnehmen, was bedeutet, dass die Möglichkeit besteht, dass Transaktionen unbemerkt bleiben und nicht ausgeführt werden. Es ist wichtig zu beachten, dass die Einführung privater Pools nicht unbedingt die für die Ausführung erforderliche Mindestprioritätsgebühr senken muss. Darüber hinaus weist Capponi darauf hin, dass der Wettbewerb zwischen vordergründigen Angreifern den Validatoren durch den maximal extrahierbaren Wert (MEV) zugute kommt. Letztendlich können private Pools zwar das Front-Running-Risiko mindern, sie können jedoch die für die Ausführung erforderliche Gebühr erhöhen, was zu Ineffizienzen bei der Zuteilung führt.

Capponi betont den Zusammenhang zwischen dem Anteil der über private Pools geleiteten Transaktionen und der Wahrscheinlichkeit, an vorderster Front zu stehen, was eine optimale Zuteilung erschwert. Er untersucht außerdem verschiedene Arten von Front-Running-Angriffen, darunter Unterdrückungs- und Verdrängungsangriffe, und präsentiert Daten, die die erheblichen Verluste zeigen, die durch Front-Running entstehen. Um diesen Risiken zu begegnen, schlägt Capponi vor, Benutzer über den Transaktionszeitpunkt aufzuklären und die Transaktionsvalidierung deterministischer zu gestalten, um ein gerechteres System zu schaffen.

Die Diskussion berührt die Dynamik privater Transaktionspools, die Herausforderungen der Einführung und die damit verbundenen potenziellen Kompromisse. Capponi erklärt, wie private Pools Schutz vor Frontrunning bieten, weist jedoch darauf hin, dass ihre Wirksamkeit von der Anzahl der am privaten Pool teilnehmenden Validatoren abhängt. Darüber hinaus geht er auf das Problem ein, dass Validatoren aufgrund des MEV-Verlusts keine privaten Pools einführen, und schlägt mögliche Lösungen wie Benutzersubventionen vor, um Anreize für deren Einführung zu schaffen.

Während private Transaktionspools die Front-Running-Risiken bis zu einem gewissen Grad abmildern können, betont Capponi, dass sie nicht narrensicher sind und möglicherweise keine optimale Allokation erreichen. Die Komplexität ergibt sich aus Faktoren wie dem Wettbewerb zwischen Angreifern, der Akzeptanzrate von Validatoren in privaten Pools und den daraus resultierenden Auswirkungen auf die Ausführungsgebühren. Die Diskussion wirft wichtige Überlegungen für die Blockchain-Community auf, wenn es darum geht, aktuelle Risiken anzugehen und ein faires und effizientes dezentrales Austauschumfeld sicherzustellen.

  • 00:00:00 In diesem Abschnitt stellt Agostino Capponi das Thema dezentraler Börsen und die damit verbundenen Risiken vor. Er erklärt, dass die Blockchain-Architektur dadurch funktioniert, dass Transaktionen an einen Speicherpool übermittelt werden, auf den dann Validatoren zugreifen, die die Transaktionen an Blöcke anhängen und Gebühren von den Benutzern erhalten. Capponi weist darauf hin, dass Benutzer ihre Transaktionen priorisieren können, indem sie höhere Gebühren anbieten, dieses System jedoch zu Frontrunning führen kann. Er stellt das Konzept privater Pools als mögliche Lösung für dieses Problem vor und erläutert, wie sein Team ein spieltheoretisches Modell entwickelt hat, um die Wirksamkeit dieser Pools bei der Abschwächung von Frontrunning zu testen.

  • 00:05:00 In diesem Abschnitt beschreibt Agostino Capponi das Problem des Frontrunnings in öffentlichen Open-Access-Blockchains, die es Benutzern ermöglichen, Transaktionen anzuzeigen und einzureichen. Front-Running-Angriffe treten auf, wenn Benutzer verwertbare Informationen über ausstehende oder ausgeführte Transaktionen ausnutzen. Capponi erklärt den Sandwich-Angriff, bei dem ein Angreifer eine höhere Gebühr für die Ausführung der Transaktion vor dem Benutzer erhebt, wodurch der Preis steigt, und dann eine umgekehrte Transaktion mit Gewinn ausführt. Obwohl das Risiko eines Scheiterns besteht, wenn das Honorar des Angreifers nicht hoch genug ist, planen Angreifer ihre Befehle in der Regel zeitlich, um ihre Erfolgschancen zu erhöhen.

  • 00:10:00 In diesem Abschnitt bespricht Agostino Capponi verschiedene Arten von Front-Running-Angriffen, darunter Unterdrückungsangriffe und Verdrängungsangriffe, bei denen ein Angreifer mehrere Transaktionen übermittelt oder die Transaktion eines anderen Benutzers verdrängt, um zuerst die gewünschte Transaktion auszuführen. Capponi stellt die Frage, ob Front-Running ein wesentliches Risiko darstellt, das die Blockchain-Einführung einschränkt, und präsentiert eine Grafik, die die Anzahl der Front-Running-Angriffe und die daraus erzielten Einnahmen von Mai 2020 bis März 2021 zeigt, was auf einen Verlust von etwa 10.000 Ethereum oder 125 Millionen US-Dollar hindeutet. zwei vorne laufend.

  • 00:15:00 In diesem Abschnitt erörtert Agostino Capponi das Problem des Front-Runnings bei Ethereum-Transaktionen und die damit verbundenen direkten und indirekten Kosten. Er erklärt, dass eine Lösung für dieses Problem die Verwendung privater Transaktionspools ist, bei denen es sich im Wesentlichen um parallele Kanäle außerhalb der Kette handelt, die vom öffentlichen Pool getrennt sind und nur von einigen Validatoren überwacht werden können. Bei Transaktionen, die an diese privaten Pools übermittelt werden, besteht kein Front-Run-Risiko, solange sich die Prüfer ehrlich verhalten. Wenn sich herausstellt, dass es sich dabei um Front-Run-Transaktionen handelt, werden sie aus dem Pool ausgeschlossen. Insgesamt stellen private Transaktionspools eine gute Lösung für diejenigen dar, die Bedenken hinsichtlich des Front-Runnings haben und ihre Transaktionen ohne Front-Running ausführen lassen möchten.

  • 00:20:00 In diesem Abschnitt diskutiert Agostino Capponi die Verwendung privater Transaktionspools und ob diese das Risiko eines Frontrunnings mindern können. Capponi erklärt, dass private Pools nur für Validatoren sichtbar und außerhalb der Kette liegen, was bedeutet, dass Angreifer keinen Zugriff darauf haben. Dies eliminiert die Möglichkeit, an vorderster Front zu stehen, und bietet Garantien, da Validatoren sich dazu verpflichten, sich nicht an vorderster Front zu beteiligen. Capponi befasst sich auch mit der Frage der Akzeptanz und der Frage, ob Benutzer ihre Transaktionen in den Pool einreichen. Darüber hinaus erwähnt er, dass Angreifer möglicherweise immer noch miteinander konkurrieren, der private Pool jedoch das Risiko einer Unterinvestition durch Arbitrage-Bots verringern kann. Abschließend stellt er ein einfaches Modell mit drei Agenten vor, um zu diskutieren, ob die Einführung privater Pools beobachtet wird.

  • 00:25:00 In diesem Abschnitt diskutiert Agostino Capponi das Konzept privater Transaktionspools und ob sie Front-Running-Risiken mindern oder nicht. Er erklärt, dass es zwei mögliche Orte für die Einreichung von Transaktionen gibt: den privaten Pool und den öffentlichen Pool. Nachdem die Validatoren festgelegt haben, welcher Pool überwacht werden soll, zahlen die Benutzer ihre Prioritätsgebühr und wählen aus, wo sie die Transaktion einreichen möchten. Die Angreifer suchen dann nach Möglichkeiten, übermitteln Transaktionen und entscheiden, wo sie diese übermitteln. Capponi betont die Bedeutung der Wahrscheinlichkeit beim Erkennen von Chancen und der Wahrscheinlichkeiten für einen erfolgreichen Frontrun.

  • 00:30:00 In diesem Abschnitt erklärt der Redner das Konzept privater Transaktionspools und ob sie Frontrunning-Risiken mindern können. Private Transaktionspools können Schutz vor Frontrunning-Risiken bieten, da nur der Validator, der den Block anhängt, die Transaktionen sehen kann, wodurch andere Schiedsrichter daran gehindert werden, Chancen vor dem Benutzer zu erkennen. Allerdings birgt die Übermittlung über einen privaten Pool ein Ausführungsrisiko, da sich nicht alle Validatoren im privaten Pool befinden und die Möglichkeit besteht, dass die Transaktion nicht sichtbar ist und daher nicht ausgeführt wird. Während private Pool-Transaktionen Vorrang vor öffentlichen Pool-Transaktionen haben, wirkt sich die Anzahl der Validatoren, die den privaten Pool überwachen, auf das Ausführungsrisiko aus, sodass Benutzer dies berücksichtigen müssen, bevor sie eine Transaktion über den privaten Pool übermitteln.

  • 00:35:00 In diesem Abschnitt erklärt Agostino Capponi, dass private Transaktionspools Front-Running-Risiken bis zu einem gewissen Grad abmildern können, dass dies jedoch nicht narrensicher ist. Angreifer werden sich auf ein Wettrüsten einlassen, um Priorität bei der Ausführung ihres Befehls zu erlangen, und sie können sowohl private als auch öffentliche Pools nutzen, um das Ausführungsrisiko zu verringern, erhalten aber dennoch eine priorisierte Ausführung. In der Zwischenzeit entscheiden Benutzer, die im Vordergrund stehen können, basierend auf der Akzeptanzrate der Validatoren im privaten Pool und den Front-Running-Kosten, ob sie ihre Transaktionen an den privaten Pool oder den öffentlichen Pool übermitteln. Wenn die Akzeptanzrate hoch ist, nutzen sie den privaten Pool, um nicht an vorderster Front zu stehen. Wenn sie jedoch niedrig ist, können sie sich für den öffentlichen Pool entscheiden, um trotz des Risikos, an vorderster Front zu stehen, nicht zu viele Blöcke auf die Ausführung warten zu müssen.

  • 00:40:00 In diesem Abschnitt erklärt Agostino Capponi, wie private Transaktionspools potenziell das Front-Running-Risiko mindern können. Wenn sich ein Benutzer einem privaten Pool anschließt und alle Validatoren diesem Pool beitreten, wird das Front-Running-Risiko eliminiert, da keine Möglichkeit zur Arbitrage besteht. Allerdings werden in Fällen, in denen das Front-Running-Risiko gering ist, nicht alle Validatoren den privaten Pool übernehmen, was bedeutet, dass sich der Benutzer stattdessen für den öffentlichen Pool entscheiden kann, wodurch er sich erneut dem Front-Running-Risiko aussetzt.

  • 00:45:00 In diesem Abschnitt erörtert Agostino Capponi, ob private Transaktionspools das Front-Running-Risiko mindern und die für die Ausführung erforderliche Mindestgebühr senken können. Es wird argumentiert, dass das Front-Running-Risiko nur dann eliminiert wird, wenn der Verlust groß ist, und selbst dann können einige Front-Running-Verluste nicht eliminiert werden. Darüber hinaus kommt der Wettbewerb zwischen vordergründigen Angreifern den Validatoren oder Minern durch den maximal extrahierbaren Wert (MEV) zugute. Die Einführung privater Pools verringert möglicherweise nicht unbedingt die für die Ausführung erforderliche Mindestprioritätsgebühr, da Validatoren nur dann bereit sind, private Pools einzuführen, wenn sie eine höhere Gebühr verdienen können. Darüber hinaus kann die Existenz eines privaten Pools zu einer höheren Nachfrage nach Blockplatz führen, was die für die Ausführung erforderliche Gebühr erhöhen würde. Letztendlich verringern private Pools möglicherweise nicht immer das Risiko im Vorfeld, können jedoch die für die Ausführung erforderliche Gebühr erhöhen, was zu einer Ineffizienz der Allokation führt.

  • 00:50:00 In diesem Abschnitt diskutiert der Redner die Ineffizienzen, die durch Front-Running-Risiken in Blockchains verursacht werden. Die erste Ineffizienz resultiert aus Benutzern, die sich möglicherweise dazu entschließen, Transaktionen nicht einzureichen, da das Risiko besteht, dass sie an vorderster Front stehen, was zu einer suboptimalen Zuordnung von Transaktionen führen kann. Die zweite Ineffizienz ergibt sich aus Front-Running-Angriffen, bei denen ein Angreifer eine Transaktion vor dem Opfer ausführt, was zu einer Wertübertragung führt. Um diese Risiken zu mindern, werden private Transaktionspools vorgeschlagen, die den Wert von Transaktionen steigern und Benutzern helfen können, ohne Angst vor einem Front-Running einzureichen. Allerdings ist die Einführung privater Pools durch alle Validatoren aufgrund des schlechten MEV und der daraus resultierenden Einnahmeverluste für Validatoren nicht immer möglich.

  • 00:55:00 In diesem Abschnitt diskutiert Agostino Capponi das Problem, dass Validatoren die privaten Pools nicht übernehmen, obwohl dies ein sozial optimales Ergebnis wäre. Der Grund dafür ist, dass sie ihren MEV (maximal extrahierbaren Wert) verlieren würden und ohne einen Vorteil für sie nicht wechseln würden. Die Lösung bestünde darin, dass die Front-Run-Benutzer die Validatoren subventionieren, indem sie sich verpflichten, ihnen den Betrag zu zahlen, der dem entspricht, was sie gespart hätten, wenn sie nicht Front-Run wären. Die Daten deuten darauf hin, dass das Kosten-Ertrags-Verhältnis der Angreifer aufgrund der Einführung privater Flash-Bot-Pools erheblich geringer ist, wenn der Wettbewerb darum, als Erster auszuführen, hart ist.
  • 01:00:00 In diesem Abschnitt diskutiert Agostino Capponi seine Forschung zu privaten Transaktionspools und ob sie das Risiko eines Frontrunnings mindern. Er erklärt, dass private Pools zwar eine gewisse Abmilderung großer Front-Running-Verluste bieten können, für Angreifer, die Arbitrage-Bots betreiben, jedoch nicht von Vorteil sind, da dies ihre Situation verschlimmern kann. Die Wahrscheinlichkeit, als Frontrun gehandelt zu werden, lässt sich abschätzen, indem man den Slippage betrachtet, der bei der Transaktion entstehen würde, im Vergleich zum Preis, der für den Frontrun gezahlt werden muss. Capponi weist darauf hin, dass ein positiver Zusammenhang zwischen der Wahrscheinlichkeit, an der Spitze zu stehen, und dem Anteil der Transaktionen besteht, die über private Pools geleitet werden. Er kommt zu dem Schluss, dass private Pools keine optimale Zuweisung erreichen können, da nicht alle Validatoren den Pool überwachen, was zu Ineffizienzen wie Frontrunning-Risiko oder der Zuweisung von Blockraum zu einer Frontrunnable-Transaktion führt.

  • 01:05:00 In diesem Abschnitt diskutiert Agostino Capponi von der Columbia University den Einsatz privater Transaktionspools, um Front-Running-Risiken in der Blockchain zu vermeiden, insbesondere in Ethereum und Polygon. Er weist auch darauf hin, dass es derzeit ein monopolistisches Unternehmen gibt, das alle Belohnungen des Anbieters erhält, und Ethereum erwägt Lösungen wie die Verbrennung oder Umverteilung des Minor Extractable Value (MEV), um dies zu verhindern. Capponi wirft auch das umstrittene Thema der mathematischen Zerstörungswaffen im Zusammenhang mit Blockchain-Transaktionen und der Wertübertragung von denen, die die Formel nicht verstehen, auf diejenigen, die sie verstehen, auf.

  • 01:10:00 In diesem Abschnitt diskutieren die Referenten das Problem des Front-Running in privaten Transaktionspools und wie es sich auf unerfahrene Benutzer wie Family Offices auswirken kann. Sie schlagen vor, dass es, um das System gerechter zu machen, eine Möglichkeit geben muss, diese Benutzer darüber aufzuklären, wie sie ihre Transaktionen zeitlich besser planen können, um nicht in den Vordergrund zu geraten. Sie stellen außerdem fest, dass Bots, die sich an vorderster Front engagieren, äußerst ausgefeilt sind und komplexe Algorithmen verwenden, um zu ermitteln, wie Transaktionen am besten ausgeführt und gleichzeitig der größte Gewinn erzielt werden können. Die Redner schlagen vor, dass es für Benutzer einfacher wäre, ihre Transaktionen besser zu timen und das Risiko eines Front-Runnings zu verringern, wenn der Zeitpunkt der Transaktionsvalidierung deterministischer wäre.
Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"
Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"
  • 2023.01.25
  • www.youtube.com
Abstract: Blockchain users who submit transactions through private pools are guaranteed pre-trade privacy but face execution risk. We argue that private poo...
 

Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"



Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"

Yuyu Fan, a researcher at Alliance Bernstein, provides valuable insights into the application of natural language processing (NLP) and machine learning in analyzing earnings call transcripts and generating effective trading strategies.

Fan's team employed various techniques, including sentiment analysis, accounting analysis, and readability scoring, to screen over 200 features extracted from earnings call transcripts. They utilized advanced models like BERT (Bidirectional Encoder Representations from Transformers) to evaluate the sentiment of speakers, comparing the sentiment of CEOs with that of analysts. Interestingly, they found that analyst sentiment tends to be more reliable.

The analysis was conducted on both individual sections and combined sections of the transcripts, with the team discovering that a context-driven approach outperforms a naive approach based on background words. The sentiment signal, particularly for U.S. small-cap companies, performed well and was recommended by the investment teams.

In explaining the methodology, Fan describes how their team used quantile screening and backtesting to evaluate the performance of different features. They examined sentiment scores based on dictionary-based approaches as well as context-based approaches using BERT. The team also delved into readability scores, which measure the ease of understanding a text, focusing on CEO comments to identify potential correlations with company performance.

Fan provides insights into the working of BERT, highlighting its bi-directional encoder representation that captures contextual information from the left and right of a given word. The team fine-tuned the BERT model for sentiment analysis by adding sentiment labels through self-labeling and external datasets. Their findings indicated that BERT-based sentiment analysis outperformed dictionary-based sentiment analysis, as demonstrated by examples from earnings call transcripts.

Furthermore, Fan discusses the challenges of setting accuracy thresholds for sentiment analysis and emphasizes that practical performance may not significantly differ between accuracy levels. She highlights the success of their sentiment signal on U.S. small-cap companies, which led to its recommendation by the investment teams. Fan also mentions the publication of a paper detailing NLP features that could serve as quant signals for creating efficient trading strategies, with ongoing efforts to enhance the model through data augmentation.

The discussion expands to cover the correlation between NLP features and traditional fundamental and quantitative features, highlighting the moderate correlation observed for readability and sentiment accounting. Fan clarifies their return methodology, including the selection of companies based on the latest available information before rebalancing.

Towards the end, Fan touches upon topics such as CO2 arbitrage, the difference between BERT and FinBERT, and the development of a financial usage model for BERT specifically tailored to finance-related filings, earnings, and news. The process of converting audio data into transcripts for analysis is also mentioned, with the use of transcription services and vendor solutions.

In summary, Yuyu Fan's research showcases the power of NLP and machine learning techniques in analyzing earnings call transcripts. The application of sentiment analysis, accounting analysis, and readability scoring, along with the utilization of advanced models like BERT, enables the generation of efficient trading strategies. The context-driven approach outperforms naive approaches, and the sentiment signal proves valuable, particularly for U.S. small-cap companies, as recommended by Alliance Bernstein's investment teams.

  • 00:00:00 Yuyu Fan talks about using natural language processing (NLP) to analyze earnings call transcripts in finance. Companies use earnings calls to share financial and business information with the investment community, and analysts typically analyze the transcripts for information that may impact companies' performance and stock prices. However, manually analyzing transcripts for a large universe of companies is labor-intensive, which is where NLP and machine learning techniques come in. Such techniques have been proven to be efficient in analyzing financial documents and formulating efficient trading strategies. Yuyu Fan's research expands beyond the typical testing on US large caps to include different universe caps, including US small caps and emerging markets. Additionally, the analysis is done on individual sections as well as the combined sections of the transcripts, and a systematic comparison shows that the context-driven approach outperforms the background words naive approach.

  • 00:05:00 Yuyu Fan discusses the data used for their text mining analysis and explains the structure of earnings call transcripts, which are composed of two sections - the presentation and the Q&A section. They generated NLP features on each of these individual sections as well as the combined sections. The three categories of NLP features generated are sentiment, accounting, and readability scores. They also provide a simple back testing method for their analysis. The sentiment features are further divided into two categories, one based on a dictionary and the other on context.

  • 00:10:00 Yuyu Fan from Alliance Bernstein explains how they use text mining to screen over 200 features that are generated to find robust and good performing investment signals. They not only consider data mining, but also fundamental analysis and economic intuition, as well as prior research. They rank components by feature values and track monthly returns for each quantile to evaluate the performance. The first category is simple word count, and one of the features is analyst question word count, which generally has consistent performance with their prior expectation, except for emerging markets which have different behaviors. They evaluate the performance using basic metrics like annualized return and wall and find that this signal is just okay, not that good.

  • 00:15:00 The speaker explains the concept of readability scores and how her team uses them to analyze CEO comments. Readability scores are a metric used to measure how difficult it is to read and understand a text, taking into account the number of difficult words and sentence length. Higher scores mean the text is more difficult to understand, and lower scores mean it is easier to comprehend. Fan's team used an open-source Python package called "text stats" to calculate readability scores for CEO comments, with the hypothesis that easier-to-understand comments are more likely to lead to transparent and good performance from companies. The team then used quantile screening to evaluate different features and recommend the best-performing ones to investment teams.

  • 00:20:00 Yuyu Fan of Alliance Bernstein discusses how sentiment analysis can be used to extract insights from CEO speech transcripts. Fan explains that sentiment scores can be calculated using dictionary-based approaches, such as using generic or proprietary dictionaries that are specifically designed for financial research. The results show that sentiment analysis based on the LM dictionary carries more investment signal, especially for US small-cap companies. Monthly rebalancing is used, and the companies are ranked by sector-neutral quintiles. The results for each quintile are more differentiable when using sentiment analysis, indicating higher sentiment leads to better performance.

  • 00:25:00 Yuyu Fan from Alliance Bernstein explains how their team utilized text mining to extract insights and evaluate speaker sentiment. They analyzed the differences between CEO sentiment and analyst sentiment, finding that analyst sentiment may be a more reliable indicator due to CEOs potentially distorting analysis results towards their speech. They also delved into natural language understanding, specifically utilizing the Transformer model called BERT. BERT utilizes bi-directional encoder representation, meaning that it takes into account surrounding information on the left and right to better predict a specific word's meaning within its context.

  • 00:30:00 Yuyu Fan explains how the BERT (Bidirectional Encoder Representations from Transformers) model works for sentiment analysis. The encoder part of the model is used for lateral language understanding (language understanding without the need for translation). The embeddings from this part of the model can represent information from the entire sentence and can be fine-tuned to create a sentiment classification model. By using pre-trained BERT models and adding a downstream sentiment classification task, fine-tuning is made much easier. The sentiment labels are added through self-labeling and given labels through external datasets, and the model is trained to predict sentiment scores in a range from -1 to 1. Finally, Fan shows that BERT-based sentiment analysis outperforms sentiment analysis based on dictionary sentiment analysis with examples from earnings call transcripts.

  • 00:35:00 Yuyu Fan from Alliance Bernstein discusses text mining and how a pre-trained BERT model can be fine-tuned with specific label sentences to improve classification of financial text. The pre-trained model’s large vocabulary coverage of English tokens allows for capturing combinations and generating words, but it may not capture specific financial language. When asked about performance on sentences with both positive and negative words, Yuyu Fan explains that the classification may depend on the analyst's interpretation and expectation, but the sentence itself can be classified as positive if it reports a 10% increase in revenue.

  • 00:40:00 Yuyu Fan from Alliance Bernstein explains that it's difficult to have a hard threshold for accuracy in sentiment analysis. While it may make a big difference in academia, in practical applications, it may not make much difference since a 90% accuracy and a 92% accuracy may lead to similar performance when aggregated to the section level using mean or standard deviation. Fan explains that their model has around 90% accuracy on all sentences, and their sentiment signal performs well on U.S. small cap companies, making it a signal that their investment teams recommend using. Fan also shares that they published a paper with more details on NLP features that could be used as quant signals to form efficient trading strategies, and they are currently working on data augmentation to improve the model.

  • 00:45:00 Yuyu Fan, a data scientist at Alliance Bernstein, discusses how their NLP features correlate with traditional fundamental and quantitative features. They found that correlations are generally low, with readability and accounts for sentiment having medium correlation around 0.54 for large-cap momentum. She also explains how they measure readability using packages such as tax stats and make customizations for their usage. Fan further clarifies their return methodology, where they track one month's returns and only include companies with the latest information available before the rebalance day, typically after quarterly earnings calls for large caps. Finally, she addresses a question on CO2 arbitrage and clarifies the difference between BERT and FinBERT, which they use in their method.

  • 00:50:00 Yuyu Fan discusses the use of text mining to extract insights. She mentions the development of a financial usage model of the BERT model, specifically focused on filings, earnings, and news related to finance. The model distinguishes between pre-trained versions and those that are fine-tuned, with labels for positive, negative, and neutral output probabilities. Fan notes that the accuracy of the model varies across different sectors, and they are exploring avenues for data augmentation to improve sentiment classification for specific topics. The section ends with a discussion on the process of converting audio data into transcripts for analysis.

  • 00:55:00 Yuyu Fan from Alliance Bernstein discusses the use of text mining to extract insights. The company uses SMT for high-quality vendor data, as well as transcription services and vendor solutions for collaborations. They are also experimenting with a model called Whisper from Open AI, which uses large-scale transformer models for audio transcription, including multilingual transcription. However, due to time constraints, the Q&A session ends there.
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
  • 2022.10.26
  • www.youtube.com
Welcome to the first of the UBS and CFEM AI, Data and Analytics Speaker Series!Yuyu Fan of Alliance Bernstein spoke about "Leveraging Text Mining to Extract ...
 

Dr. Kevin Webster: „Mehr für weniger bekommen – Bessere A/B-Tests durch kausale Regularisierung“



Dr. Kevin Webster: „Mehr für weniger bekommen – Bessere A/B-Tests durch kausale Regularisierung“

In diesem Video befasst sich Dr. Kevin Webster mit den Herausforderungen, die mit Handelsexperimenten und kausalem maschinellen Lernen verbunden sind, und geht dabei auf verschiedene Schlüsselthemen ein. Ein wichtiges Problem, mit dem er sich befasst, ist die Prognoseverzerrung im Handel, bei der die beobachtete Rendite während eines Handels eine Kombination aus Preisauswirkungen und vorhergesagten Preisbewegungen ist. Um diese Tendenz abzumildern, schlägt Dr. Webster zwei Ansätze vor: die Verwendung randomisierter Handelsdaten und die Anwendung einer kausalen Regularisierung. Durch die Einbeziehung des Handelssignals, das einen Handel verursacht hat, in das Regressionsmodell können Verzerrungen beseitigt werden.

Dr. Webster stellt das Konzept eines Kausaldiagramms vor, das drei Variablen umfasst: das Alpha des Handels, die Größe des Handels und die Renditen während des Handels. Er behauptet, dass die genaue Schätzung der Preisauswirkungen ohne die Beobachtung von Alpha eine Herausforderung darstellt und dass traditionelle ökonometrische Techniken in dieser Hinsicht unzureichend sind. Er hebt die Grenzen randomisierter Handelsexperimente aufgrund ihrer begrenzten Größe und Dauer hervor und betont die Notwendigkeit einer sorgfältigen Experimentgestaltung und Kostenschätzung mithilfe von Simulatoren.

Um die Mängel der traditionellen Ökonometrie zu überwinden, plädiert Dr. Webster für eine kausale Regularisierung. Diese von Amazon abgeleitete Methode nutzt voreingenommene Daten zum Training und unvoreingenommene Daten zum Testen, was zu Schätzern mit geringer Voreingenommenheit und geringer Varianz führt. Es nutzt die Fülle der verfügbaren Unternehmensdaten und korrigiert Verzerrungen, um genauere Vorhersagen zu ermöglichen.

Die Schätzung des Alpha ohne Kenntnis seiner Auswirkungen stellt eine erhebliche Herausforderung dar, insbesondere wenn es den Handelsdaten an Vertrauenswürdigkeit mangelt. Dr. Webster schlägt die Verwendung einer zufälligen Übermittlung von Geschäften vor, um unvoreingenommene Daten zu erhalten, ohne sich auf Preistechnologie zu verlassen. Dieser Ansatz erfordert jedoch den Verzicht auf einen großen Teil der Trades, um ein Konfidenzintervall für Alpha festzulegen, was möglicherweise nicht praktikabel ist. Alternativ schlägt er vor, kausales maschinelles Lernen zu nutzen, um mit weniger Daten ähnliche Ergebnisse zu erzielen. Kausales maschinelles Lernen erweist sich bei Handelsanwendungen wie Transaktionskostenanalyse, Preisauswirkungsanalyse und Alpha-Forschung als besonders wertvoll und übertrifft die traditionelle Ökonometrie aufgrund der Verfügbarkeit umfassender, voreingenommener Handelsdaten.

Der Redner geht außerdem auf die Bedeutung der statistischen Analyse bei A/B-Tests ein und betont die Notwendigkeit, die Auswirkungen auf den Preis zu definieren und ein statistisches Maß zur Bekämpfung von Prognoseverzerrungen hinzuzufügen. Ohne diese Voreingenommenheit zu berücksichtigen, wird die Analyse subjektiv und hängt von der individuellen Interpretation ab. Dr. Webster erkennt die Herausforderungen an, die öffentliche Beobachtungsdaten mit sich bringen, und hebt die Erkenntnisse hervor, die aus interventionellen Daten gewonnen wurden. Obwohl die Beantwortung der Frage, welcher Ansatz gewählt werden soll, komplex ist, sind A/B-Tests in der Banken- und Maklerbranche nach wie vor eine gängige Praxis.

Abschließend erörtert Dr. Webster kurz die Beziehung zwischen Transferlernen und kausaler Regularisierung. Während es bei beiden darum geht, ein Modell anhand eines Datensatzes zu trainieren und auf einen anderen anzuwenden, fehlt beim Transferlernen eine kausale Interpretation. Die Analogie zwischen den beiden liegt in ihrem Validierungsprozess, wobei die Kreuzvalidierung eine zentrale Rolle spielt. Trotz ihrer mathematischen Ähnlichkeiten betont Dr. Webster die Neuheit der kausalen Interpretation des Ansatzes.

  • 00:00:00 Kevin Webster spricht über Live-Trading-Experimente und kausales maschinelles Lernen. Er beschreibt ein Szenario, in dem ein Hedgefonds über einen Broker handelt, der für die Ausführung des Handels und die Sicherstellung der bestmöglichen Ausführung verantwortlich ist und gleichzeitig nachweist, dass er im besten Interesse des Kunden gehandelt hat. Der Broker steht vor Schwierigkeiten, da seine Kunden nicht zufällig auf der Grundlage von Alpha-Signalen handeln und die beobachtete Rendite während eines Handels eine Mischung aus Preisauswirkungen und vorhergesagten Preisbewegungen ist, die durch den Handel verursacht werden. Webster möchte dieses Problem durch kausale Regularisierung angehen und schlägt ein Modell vor, das lernt, wie die vorhergesagte Preisbewegung mit dem Auftragsfluss zusammenhängt.

  • 00:05:00 Der Redner diskutiert die Unterscheidung zwischen Alpha-Signalen und Preisauswirkungen, die zwei Komponenten der Rendite sind. Alpha-Signale sagen Preisbewegungen voraus, die unabhängig davon auftreten würden, ob Aktien gehandelt werden oder nicht, während Preisauswirkungen Preisbewegungen beschreiben, die durch den Handel verursacht werden. Händler nutzen Pricing Back-Knolls, um zu simulieren, wie Preise auf ihre Trades reagieren würden, und um Was-wäre-wenn-Szenarien zu beantworten. Es ist jedoch schwierig zu unterscheiden, ob Händler eine Preisbewegung verursacht oder vorhergesagt haben, was zu einer Verzerrung der Vorhersage führt. Die proprietären Daten und anderen Techniken von CFM können dazu beitragen, Verzerrungen zu beseitigen und die Prognoseverzerrung zu korrigieren, indem sie das Handelssignal berücksichtigen, das einen Handel in der Regression verursacht hat.

  • 00:10:00 In diesem Abschnitt des Videos erörtert Dr. Kevin Webster das Problem der Prognoseverzerrung im Handel und wie es sich sowohl auf Broker als auch auf Alpha-Forscher auswirkt. Er erklärt, dass ein Alpha-Forscher zwar über das Alpha-Signal verfügt, aber möglicherweise nicht über ein gutes Preisauswirkungsmodell verfügt, was zu einer Überschätzung des Alpha führt. Umgekehrt handeln Broker, wenn sie das Alpha nicht kennen, für den Kunden zu langsam. Dr. Webster schlägt die Verwendung des teuren randomisierten Handels oder der kausalen Regularisierung vor, eine Methode, die sowohl zufällige Handelsdaten als auch historische Daten auf intelligente Weise kombiniert, um eine bessere Leistung als herkömmliche Ökonometrie zu erzielen. Abschließend erklärt er, dass er die Leistungsfähigkeit dieser Methoden anhand einer Simulation vergleichen wird.

  • 00:15:00 Dr. Kevin Webster diskutiert drei Methoden des ökonometrischen Testens, betont die Bedeutung der kausalen Schlussfolgerung und erklärt, wie sie in der Technologiebranche, insbesondere in der Community des maschinellen Lernens, bereits aktiv eingesetzt wird. Er betont außerdem, wie diese Unternehmen kausales maschinelles Lernen nutzen, um es ihren Teams zu ermöglichen, sich schnell auf die Wahrheit zu einigen, die erneute Untersuchung überraschender Ergebnisse zu vermeiden, die Wiederholung fehlerhafter Experimente zu vermeiden und das Hinterfragen wichtiger Entscheidungen zu verhindern. Die Methoden von Dr. Webster nutzen eine Kombination aus kausalen und ökonometrischen Tests und ermöglichen so genauere Vorhersagen auf der Grundlage von fünfmal weniger Daten.

  • 00:20:00 Der Autor schlägt für seine Studie ein Kausaldiagramm vor, das drei Variablen umfasst: Alpha des Handels, Größe des Handels und Renditen während des Handels. Er geht davon aus, dass die zugrunde liegenden Merkmale seiner Alpha-Modelle die unterschiedlichen fundamentalen Preisbewegungen der Aktie bestimmen und dass sein Handelsalgorithmus auf Alpha-Signale reagiert und Trades auslöst. Er geht außerdem davon aus, dass Trades Preisbewegungen auslösen, die als Price Impact bezeichnet werden. Laut Dr. Webster können Händler die Preisauswirkungen ohne Beobachtung von Alpha nicht abschätzen, ganz gleich, welche ausgefallene Regressionstechnik sie verwenden. Händler können die Auswirkungen auf den Preis abschätzen, indem sie sie nach dem Zufallsprinzip berechnen. Dies wird in der Finanzbranche aktiv genutzt und ist als randomisierte Handelskosten bekannt. Allerdings ist seine Verwendung nur auf inhaltliche Anordnungen beschränkt, da solche Randomisierungen teuer sind.

  • 00:25:00 Der Redner erörtert die Einschränkungen randomisierter Handelsexperimente im Vergleich zu Beobachtungsdaten aufgrund der begrenzten Größe und Dauer der Experimente. Bei einem angemessenen Parametersatz kann der Beobachtungsdatensatz größer sein als der Interventionsdatensatz, und Händler müssen aufgrund der mit Fehlern verbundenen Kosten vor der Umsetzung Experimente entwerfen. Der Einsatz eines Simulators zur Bestimmung der Kosten und des Konfidenzintervalls des Experiments vor der Übermittlung zufälliger Trades ist von entscheidender Bedeutung. Ohne Berücksichtigung der Verzerrung führt das Ignorieren von Alpha zu einer hohen Verzerrung und einer geringen Varianz.

  • 00:30:00 Dr. Kevin Webster erklärt die Grenzen der traditionellen Ökonometrie und stellt das Konzept der kausalen Regularisierung vor, eine Methode von Amazon, bei der Bias-Daten als Trainingsdaten und unverzerrte Daten als Testdaten zur Optimierung von Metaparametern verwendet werden. Im Gegensatz zu herkömmlichen Methoden, die nur eine kleine Menge experimenteller Daten verwenden, gewährleistet die Methode einen Schätzer mit geringer Verzerrung und geringer Varianz. Der Algorithmus zur kausalen Regularisierung ermöglicht die Nutzung der umfangreichen verfügbaren Organisationsdaten und die Korrektur etwaiger Verzerrungen, um den Händlern genaue Schätzungen zu liefern.

  • 00:35:00 In diesem Abschnitt des Videos erörtert Dr. Kevin Webster die Herausforderungen der Alpha-Schätzung, ohne die Auswirkungen zu kennen, wenn kein Vertrauen in Handelsdaten besteht. Er schlägt eine Lösung vor, bei der Trades nicht nach dem Zufallsprinzip übermittelt werden, um unvoreingenommene Daten zu erhalten, die modellfrei sind und keine Preistechnologie erfordern. Der Nachteil besteht jedoch darin, dass auf einen großen Teil der Trades verzichtet werden muss, um ein Konfidenzintervall für Alpha zu erhalten, was für Händler möglicherweise nicht praktikabel ist. Anschließend schlägt er eine Methode des maschinellen Lernens vor, um dieses Problem anzugehen und mit weniger Daten das gleiche Ergebnis zu erzielen. Kausales maschinelles Lernen ist auf Handelsanwendungen wie Transaktionskostenanalyse, Preisauswirkungen und Alpha-Forschung anwendbar und übertrifft die traditionelle Ökonometrie in Handelsdatensystemen aufgrund der Verfügbarkeit tiefgreifender, voreingenommener Handelsdaten.

  • 00:40:00 Der Redner erörtert die grundlegende Unsicherheit, die mit A/B-Tests verbunden ist, und wie die statistische Analyse eine entscheidende Rolle dabei spielt, die Grundwahrheit als statistisch signifikant zu ermitteln, jedoch nicht auf der Ebene einzelner Trades. Er betont, dass die Definition von Preisauswirkungen und das Anhängen einer statistischen Zahl an diese Definition dabei helfen kann, Prognoseverzerrungen entgegenzuwirken. Ohne Maßnahmen zur Bekämpfung von Vorhersagefehlern wird die Analyse jedoch subjektiv und hängt vom Auge des Betrachters ab. Dr. Webster erörtert auch die Herausforderungen, die mit öffentlichen Beobachtungsdaten verbunden sind, und wie interventionelle Daten mehr Einblicke in die Analyse liefern können. Er räumt ein, dass diese Frage zwar schwer zu beantworten ist, A/B-Tests jedoch eine gängige Transformation sind, die viele Banken und Broker übernehmen.

  • 00:45:00 Dr. Kevin Webster erörtert kurz die Beziehung zwischen Transferlernen und kausaler Regularisierung. Er stellt fest, dass es eine Analogie zwischen beiden gibt, da es bei beiden darum geht, ein Modell auf einem Datensatz zu trainieren und zu hoffen, dass es auf einem anderen Datensatz gut funktioniert. Während beim Transferlernen eine kausale Interpretation fehlt, funktioniert der Beweis für das Transferlernen aufgrund der Kreuzvalidierung, die auch für die kausale Regularisierung gilt. Trotz der mathematischen Ähnlichkeit behauptet Dr. Webster, dass die kausale Interpretation des Ansatzes recht neuartig sei.
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
  • 2022.11.09
  • www.youtube.com
Abstract: Causal regularization solves several practical problems in live trading applications: estimating price impact when alpha is unknown and estimating...
 

Dr. Kevin Webster: „Mehr für weniger bekommen – Bessere A/B-Tests durch kausale Regularisierung“



Dr. Kevin Webster: „Mehr für weniger bekommen – Bessere A/B-Tests durch kausale Regularisierung“

In diesem Video befasst sich Dr. Kevin Webster mit den Herausforderungen, die mit Handelsexperimenten und kausalem maschinellen Lernen verbunden sind, und geht dabei auf verschiedene Schlüsselthemen ein. Ein wichtiges Problem, mit dem er sich befasst, ist die Prognoseverzerrung im Handel, bei der die beobachtete Rendite während eines Handels eine Kombination aus Preisauswirkungen und vorhergesagten Preisbewegungen ist. Um diese Tendenz abzumildern, schlägt Dr. Webster zwei Ansätze vor: die Verwendung randomisierter Handelsdaten und die Anwendung einer kausalen Regularisierung. Durch die Einbeziehung des Handelssignals, das einen Handel verursacht hat, in das Regressionsmodell können Verzerrungen beseitigt werden.

Dr. Webster stellt das Konzept eines Kausaldiagramms vor, das drei Variablen umfasst: das Alpha des Handels, die Größe des Handels und die Renditen während des Handels. Er behauptet, dass die genaue Schätzung der Preisauswirkungen ohne die Beobachtung von Alpha eine Herausforderung darstellt und dass traditionelle ökonometrische Techniken in dieser Hinsicht unzureichend sind. Er hebt die Grenzen randomisierter Handelsexperimente aufgrund ihrer begrenzten Größe und Dauer hervor und betont die Notwendigkeit einer sorgfältigen Experimentgestaltung und Kostenschätzung mithilfe von Simulatoren.

Um die Mängel der traditionellen Ökonometrie zu überwinden, plädiert Dr. Webster für eine kausale Regularisierung. Diese von Amazon abgeleitete Methode nutzt voreingenommene Daten zum Training und unvoreingenommene Daten zum Testen, was zu Schätzern mit geringer Voreingenommenheit und geringer Varianz führt. Es nutzt die Fülle der verfügbaren Unternehmensdaten und korrigiert Verzerrungen, um genauere Vorhersagen zu ermöglichen.

Die Schätzung des Alpha ohne Kenntnis seiner Auswirkungen stellt eine erhebliche Herausforderung dar, insbesondere wenn es den Handelsdaten an Vertrauenswürdigkeit mangelt. Dr. Webster schlägt die Verwendung einer zufälligen Übermittlung von Geschäften vor, um unvoreingenommene Daten zu erhalten, ohne sich auf Preistechnologie zu verlassen. Dieser Ansatz erfordert jedoch den Verzicht auf einen großen Teil der Trades, um ein Konfidenzintervall für Alpha festzulegen, was möglicherweise nicht praktikabel ist. Alternativ schlägt er vor, kausales maschinelles Lernen zu nutzen, um mit weniger Daten ähnliche Ergebnisse zu erzielen. Kausales maschinelles Lernen erweist sich bei Handelsanwendungen wie Transaktionskostenanalyse, Preisauswirkungsanalyse und Alpha-Forschung als besonders wertvoll und übertrifft die traditionelle Ökonometrie aufgrund der Verfügbarkeit umfassender, voreingenommener Handelsdaten.

Der Redner geht außerdem auf die Bedeutung der statistischen Analyse bei A/B-Tests ein und betont die Notwendigkeit, die Auswirkungen auf den Preis zu definieren und ein statistisches Maß zur Bekämpfung von Prognoseverzerrungen hinzuzufügen. Ohne diese Voreingenommenheit zu berücksichtigen, wird die Analyse subjektiv und hängt von der individuellen Interpretation ab. Dr. Webster erkennt die Herausforderungen an, die öffentliche Beobachtungsdaten mit sich bringen, und hebt die Erkenntnisse hervor, die aus interventionellen Daten gewonnen wurden. Obwohl die Beantwortung der Frage, welcher Ansatz gewählt werden soll, komplex ist, sind A/B-Tests in der Banken- und Maklerbranche nach wie vor eine gängige Praxis.

Abschließend erörtert Dr. Webster kurz die Beziehung zwischen Transferlernen und kausaler Regularisierung. Während es bei beiden darum geht, ein Modell anhand eines Datensatzes zu trainieren und auf einen anderen anzuwenden, fehlt beim Transferlernen eine kausale Interpretation. Die Analogie zwischen den beiden liegt in ihrem Validierungsprozess, wobei die Kreuzvalidierung eine zentrale Rolle spielt. Trotz ihrer mathematischen Ähnlichkeiten betont Dr. Webster die Neuheit der kausalen Interpretation des Ansatzes.

  • 00:00:00 Kevin Webster spricht über Live-Trading-Experimente und kausales maschinelles Lernen. Er beschreibt ein Szenario, in dem ein Hedgefonds über einen Broker handelt, der für die Ausführung des Handels und die Sicherstellung der bestmöglichen Ausführung verantwortlich ist und gleichzeitig nachweist, dass er im besten Interesse des Kunden gehandelt hat. Der Broker steht vor Schwierigkeiten, da seine Kunden nicht zufällig auf der Grundlage von Alpha-Signalen handeln und die beobachtete Rendite während eines Handels eine Mischung aus Preisauswirkungen und vorhergesagten Preisbewegungen ist, die durch den Handel verursacht werden. Webster möchte dieses Problem durch kausale Regularisierung angehen und schlägt ein Modell vor, das lernt, wie die vorhergesagte Preisbewegung mit dem Auftragsfluss zusammenhängt.

  • 00:05:00 Der Redner diskutiert die Unterscheidung zwischen Alpha-Signalen und Preisauswirkungen, die zwei Komponenten der Rendite sind. Alpha-Signale sagen Preisbewegungen voraus, die unabhängig davon auftreten würden, ob Aktien gehandelt werden oder nicht, während Preisauswirkungen Preisbewegungen beschreiben, die durch den Handel verursacht werden. Händler nutzen Pricing Back-Knolls, um zu simulieren, wie Preise auf ihre Trades reagieren würden, und um Was-wäre-wenn-Szenarien zu beantworten. Es ist jedoch schwierig zu unterscheiden, ob Händler eine Preisbewegung verursacht oder vorhergesagt haben, was zu einer Verzerrung der Vorhersage führt. Die proprietären Daten und anderen Techniken von CFM können dazu beitragen, Verzerrungen zu beseitigen und die Prognoseverzerrung zu korrigieren, indem sie das Handelssignal berücksichtigen, das einen Handel in der Regression verursacht hat.

  • 00:10:00 In diesem Abschnitt des Videos erörtert Dr. Kevin Webster das Problem der Prognoseverzerrung im Handel und wie es sich sowohl auf Broker als auch auf Alpha-Forscher auswirkt. Er erklärt, dass ein Alpha-Forscher zwar über das Alpha-Signal verfügt, aber möglicherweise nicht über ein gutes Preisauswirkungsmodell verfügt, was zu einer Überschätzung des Alpha führt. Umgekehrt handeln Broker, wenn sie das Alpha nicht kennen, für den Kunden zu langsam. Dr. Webster schlägt die Verwendung des teuren randomisierten Handels oder der kausalen Regularisierung vor, eine Methode, die sowohl zufällige Handelsdaten als auch historische Daten auf intelligente Weise kombiniert, um eine bessere Leistung als herkömmliche Ökonometrie zu erzielen. Abschließend erklärt er, dass er die Leistungsfähigkeit dieser Methoden anhand einer Simulation vergleichen wird.

  • 00:15:00 Dr. Kevin Webster diskutiert drei Methoden des ökonometrischen Testens, betont die Bedeutung der kausalen Schlussfolgerung und erklärt, wie sie in der Technologiebranche, insbesondere in der Community des maschinellen Lernens, bereits aktiv eingesetzt wird. Er betont außerdem, wie diese Unternehmen kausales maschinelles Lernen nutzen, um es ihren Teams zu ermöglichen, sich schnell auf die Wahrheit zu einigen, die erneute Untersuchung überraschender Ergebnisse zu vermeiden, die Wiederholung fehlerhafter Experimente zu vermeiden und das Hinterfragen wichtiger Entscheidungen zu verhindern. Die Methoden von Dr. Webster nutzen eine Kombination aus kausalen und ökonometrischen Tests und ermöglichen so genauere Vorhersagen auf der Grundlage von fünfmal weniger Daten.

  • 00:20:00 Der Autor schlägt für seine Studie ein Kausaldiagramm vor, das drei Variablen umfasst: Alpha des Handels, Größe des Handels und Renditen während des Handels. Er geht davon aus, dass die zugrunde liegenden Merkmale seiner Alpha-Modelle die unterschiedlichen fundamentalen Preisbewegungen der Aktie bestimmen und dass sein Handelsalgorithmus auf Alpha-Signale reagiert und Trades auslöst. Er geht außerdem davon aus, dass Trades Preisbewegungen auslösen, die als Price Impact bezeichnet werden. Laut Dr. Webster können Händler die Preisauswirkungen ohne Beobachtung von Alpha nicht abschätzen, ganz gleich, welche ausgefallene Regressionstechnik sie verwenden. Händler können die Auswirkungen auf den Preis abschätzen, indem sie sie nach dem Zufallsprinzip berechnen. Dies wird in der Finanzbranche aktiv genutzt und ist als randomisierte Handelskosten bekannt. Allerdings ist seine Verwendung nur auf inhaltliche Anordnungen beschränkt, da solche Randomisierungen teuer sind.

  • 00:25:00 Der Redner erörtert die Einschränkungen randomisierter Handelsexperimente im Vergleich zu Beobachtungsdaten aufgrund der begrenzten Größe und Dauer der Experimente. Bei einem angemessenen Parametersatz kann der Beobachtungsdatensatz größer sein als der Interventionsdatensatz, und Händler müssen aufgrund der mit Fehlern verbundenen Kosten vor der Umsetzung Experimente entwerfen. Der Einsatz eines Simulators zur Bestimmung der Kosten und des Konfidenzintervalls des Experiments vor der Übermittlung zufälliger Trades ist von entscheidender Bedeutung. Ohne Berücksichtigung der Verzerrung führt das Ignorieren von Alpha zu einer hohen Verzerrung und einer geringen Varianz.

  • 00:30:00 Dr. Kevin Webster erklärt die Grenzen der traditionellen Ökonometrie und stellt das Konzept der kausalen Regularisierung vor, eine Methode von Amazon, bei der Bias-Daten als Trainingsdaten und unverzerrte Daten als Testdaten zur Optimierung von Metaparametern verwendet werden. Im Gegensatz zu herkömmlichen Methoden, die nur eine kleine Menge experimenteller Daten verwenden, gewährleistet die Methode einen Schätzer mit geringer Verzerrung und geringer Varianz. Der Algorithmus zur kausalen Regularisierung ermöglicht die Nutzung der umfangreichen verfügbaren Organisationsdaten und die Korrektur etwaiger Verzerrungen, um den Händlern genaue Schätzungen zu liefern.

  • 00:35:00 In diesem Abschnitt des Videos erörtert Dr. Kevin Webster die Herausforderungen der Alpha-Schätzung, ohne die Auswirkungen zu kennen, wenn kein Vertrauen in Handelsdaten besteht. Er schlägt eine Lösung vor, bei der Trades nicht nach dem Zufallsprinzip übermittelt werden, um unvoreingenommene Daten zu erhalten, die modellfrei sind und keine Preistechnologie erfordern. Der Nachteil besteht jedoch darin, dass auf einen großen Teil der Trades verzichtet werden muss, um ein Konfidenzintervall für Alpha zu erhalten, was für Händler möglicherweise nicht praktikabel ist. Anschließend schlägt er eine Methode des maschinellen Lernens vor, um dieses Problem anzugehen und mit weniger Daten das gleiche Ergebnis zu erzielen. Kausales maschinelles Lernen ist auf Handelsanwendungen wie Transaktionskostenanalyse, Preisauswirkungen und Alpha-Forschung anwendbar und übertrifft die traditionelle Ökonometrie in Handelsdatensystemen aufgrund der Verfügbarkeit tiefgreifender, voreingenommener Handelsdaten.

  • 00:40:00 Der Redner erörtert die grundlegende Unsicherheit, die mit A/B-Tests verbunden ist, und wie die statistische Analyse eine entscheidende Rolle dabei spielt, die Grundwahrheit als statistisch signifikant zu ermitteln, jedoch nicht auf der Ebene einzelner Trades. Er betont, dass die Definition von Preisauswirkungen und das Anhängen einer statistischen Zahl an diese Definition dabei helfen kann, Prognoseverzerrungen entgegenzuwirken. Ohne Maßnahmen zur Bekämpfung von Vorhersagefehlern wird die Analyse jedoch subjektiv und hängt vom Auge des Betrachters ab. Dr. Webster erörtert auch die Herausforderungen, die mit öffentlichen Beobachtungsdaten verbunden sind, und wie interventionelle Daten mehr Einblicke in die Analyse liefern können. Er räumt ein, dass diese Frage zwar schwer zu beantworten ist, A/B-Tests jedoch eine gängige Transformation sind, die viele Banken und Broker übernehmen.

  • 00:45:00 Dr. Kevin Webster erörtert kurz die Beziehung zwischen Transferlernen und kausaler Regularisierung. Er stellt fest, dass es eine Analogie zwischen beiden gibt, da es bei beiden darum geht, ein Modell auf einem Datensatz zu trainieren und zu hoffen, dass es auf einem anderen Datensatz gut funktioniert. Während beim Transferlernen eine kausale Interpretation fehlt, funktioniert der Beweis für das Transferlernen aufgrund der Kreuzvalidierung, die auch für die kausale Regularisierung gilt. Trotz der mathematischen Ähnlichkeit behauptet Dr. Webster, dass die kausale Interpretation des Ansatzes recht neuartig sei.
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
  • 2022.11.09
  • www.youtube.com
Abstract: Causal regularization solves several practical problems in live trading applications: estimating price impact when alpha is unknown and estimating...
 

Andreea Minca (Cornell ORIE): Clustering heterogener Finanznetzwerke



Andreea Minca (Cornell ORIE): Clustering heterogener Finanznetzwerke

Professor Andreea Minca, eine renommierte Expertin auf dem Gebiet der Finanznetzwerke an der Cornell ORIE, hat ihre Forschung der Erforschung der Komplexität der Clusterbildung heterogener Finanznetzwerke gewidmet. Sie führt einen innovativen Regularisierungsbegriff ein, um die einzigartigen Herausforderungen dieser Netzwerke zu bewältigen, insbesondere das Vorhandensein von Ausreißern mit willkürlichen Verbindungsmustern. Diese Ausreißer behindern die Leistung von spektralen Clustering-Algorithmen und verwandeln Clustering in ein rechentechnisch anspruchsvolles Problem, das als NP-schweres kombinatorisches Problem bekannt ist.

Um diese Ausreißer anhand ihrer Verbindungsmuster zu identifizieren, verwendet Minca das stochastische Blockmodell und das gradkorrigierte stochastische Blockmodell. Diese Modelle bieten theoretische Garantien für eine präzise Wiederherstellung, ohne Annahmen über die Ausreißerknoten zu treffen, außer der Kenntnis ihrer Anzahl. Die den Finanznetzwerken inhärente Heterogenität erschwert die Erkennung von Ausreißern, die ausschließlich auf Knotengraden basieren, zusätzlich.

Minca befasst sich mit dem Prozess der Partitionierung des Netzwerks in Cluster und Ausreißer, indem er eine Partitionsmatrix und eine Permutation von Knoten erstellt. Sie veranschaulicht diesen Ansatz, indem sie ihn auf die Analyse des koreanischen Bankensystems anwendet. Darüber hinaus setzt Minca einen Gibbs-Sampler ein, um Lücken im Netzwerk zu schließen und so eine effiziente Risikoallokation und Diversifizierung von Investitionen zu ermöglichen, indem überlappende Portfolios basierend auf ihrer Stärke und dem Grad der Überlappung geclustert werden.

In ihrer Arbeit betont Minca, wie wichtig es ist, Cluster zu generieren, die eine sinnvolle Interkonnektivität aufweisen, und nicht Cluster ohne Konnektivität. Sie schlägt einen Ansatz vor, der fünf Alternativen zur Diversifizierung im Rahmen eines Cluster-Risikoparitätsrahmens bietet, und unterstreicht die Notwendigkeit sorgfältiger Überlegungen bei der Verwendung von Clustering-Algorithmen zur Erzielung einer Diversifizierung in Finanznetzwerken. Minca empfiehlt die Quantifizierung der Leistung von Clustering-Algorithmen mithilfe von Standard-Investitionskategorien und betont die Bedeutung einer fundierten Entscheidungsfindung beim Einsatz dieser Techniken.

Insgesamt liefert die Forschung von Professor Andreea Minca wertvolle Einblicke in die Feinheiten der Clusterbildung heterogener Finanznetzwerke und bietet innovative Ansätze und praktische Lösungen zur Bewältigung der mit diesen Netzwerken verbundenen Herausforderungen. Ihre Arbeit trägt zur Weiterentwicklung der Risikoanalyse, der Portfolioauswahl und dem Verständnis der strukturellen Dynamik von Finanzsystemen bei.

  • 00:00:00 Professorin Andreea Minca diskutiert ihre Arbeit zur Entwicklung von Algorithmen zur Clusterung von Finanznetzwerken anhand zweier verschiedener Beispiele. Das erste Beispiel bezieht sich auf Netzwerke überlappender Portfolios mit Anwendungen bei der Portfolioauswahl, und das zweite Beispiel bezieht sich auf das Netzwerk von Engagements, das sich auf die Analyse systemischer Risiken und das Verständnis des Risikoniveaus im Netzwerk bezieht. Ziel ist es, Clustering-Algorithmen an Finanznetzwerke anzupassen und aussagekräftige Cluster zu schaffen, die anfällig für Illiquidität oder Zahlungsausfälle in einem Institut sind. Je größer die Cluster, desto größer sind die potenziellen Auswirkungen von Stress auf ein Mitglied in diesem Cluster. Dies unterstreicht die Bedeutung des Verständnisses der Strukturen von Finanznetzwerken.

  • 00:05:00 Andreea Minca diskutiert die Herausforderungen der Clusterbildung von Finanznetzwerken, die allen realen Netzwerken gemeinsam sind. Das Problem der Clusterbildung besteht, weil Knoten dazu neigen, Gruppen zu bilden, bei denen die Konnektivität innerhalb der Gruppe größer ist als die Konnektivität zwischen Gruppen. Es gibt verschiedene Clustering-Algorithmen, aber die Heterogenität von Finanznetzwerken stellt eine Herausforderung dar, da Finanznetzwerke Heterogenität in Bezug auf Grade, Gewichtungen und unterschiedliche Inter-Community-Konnektivität aufweisen. Darüber hinaus macht es das Vorhandensein von Ausreißern schwierig, Standardalgorithmen anzuwenden, da sie möglicherweise die gleichen Verbindungsmuster wie Inline-Knoten haben, aber nicht als ein Cluster für sich betrachtet werden können. Mehrere Probleme wirken sich auf die Clusterbildung von Finanznetzwerken aus und erschweren die Anwendung vorhandener Algorithmen.

  • 00:10:00 Andreea Minca von Cornell ORIE diskutiert die Herausforderungen, denen man sich bei der Clusterung heterogener Finanznetzwerke gegenübersieht, und die Einführung eines neuartigen Regularisierungsbegriffs, um diese zu überwinden. Eine der größten Herausforderungen ist das Vorhandensein von Ausreißern mit willkürlichen Verbindungsmustern, die sich als Gegner verhalten und die Leistung von Clustering-Algorithmen wie Spectral Clustering beeinträchtigen. Das Clustering-Problem selbst ist ein NP-schweres kombinatorisches Problem, das für ein semidefinites Programm mit nachvollziehbaren Algorithmen gelockert werden kann. Ziel ist es zu beweisen, dass bestimmte Bedingungen für die Wiederherstellung der wahren Cluster gelten und der eingeführte Regularisierungsterm Ausreißer mit ungewöhnlichen Verbindungsmustern bestraft.

  • 00:15:00 Andreea Minca diskutiert die Anwendung des stochastischen Blockmodells und des gradkorrigierten stochastischen Blockmodells zur Erkennung von Clustermustern in heterogenen Finanznetzwerken. Ziel ist es, Ausreißer anhand ihrer Verbindungsmuster zu erkennen. Die bereitgestellten theoretischen Garantien gewährleisten eine exakte Wiederherstellung, ohne Annahmen über die Ausreißerknoten zu treffen, außer der Kenntnis ihrer Anzahl. Die Dichtelückenbedingungen basieren auf dem Unterschied zwischen der Randdichte zwischen Clustern und innerhalb des Clusters. Die Ergebnisse sind robuster als frühere Literatur, da sie unabhängig von der Anzahl der Ausreißer sind und nur von der Anzahl der Inliers abhängen. Die Heterogenität in Finanznetzwerken macht es schwierig, Ausreißer basierend auf Graden zu erkennen, da Knoten aufgrund der Struktur von Knoten im selben Cluster hohe Grade aufweisen können.

  • 00:20:00 Andreea Minca erklärt das Konzept der Heterogenität in Finanznetzwerken und wie es sich auf Clustering-Algorithmen auswirkt. Am Beispiel des koreanischen Bankensystems veranschaulicht sie, dass Banken und Versicherungen im gleichen Sektor Heterogenität aufweisen können und nicht als Ausreißer eingestuft werden sollten. Minca weist darauf hin, dass die stark ausgeprägte Gradverteilung in Finanznetzwerken eine sorgfältige Betrachtung der Konnektivitätsmuster und Beiträge zu den Grenzen des Gradbereichs jedes Knotens erfordert. Sie betont auch die Notwendigkeit von Straftermen im Algorithmus, die den Grad berücksichtigen, da eine homogene Bestrafung nicht für alle Knoten verwendet werden kann. Abschließend erläutert Minca die Grundlagen des Clustering-Modells, einschließlich der Angabe von Heterogenitätsparametern und Konnektivitätsmatrizen für jeden Cluster.

  • 00:25:00 Andreea Minca diskutiert die Herausforderungen des Clusterings bei Vorhandensein von Ausreißern bei der Verwendung handelsüblicher Clustering-Methoden. Das Ziel der Erkennung von Ausreißern besteht darin, einen roten Alarm auszulösen, ohne die Clusterbildung selbst oder versehentlich die Klassifizierung von In-Layer-Notizen zu behindern. Durch Anpassen der Konnektivität über die Heterogenitätsparameter kann die Adjazenzmatrix so geschrieben werden, dass sie der Adjazenzmatrix des ersten Ausreißers entspricht, um die Permutationsmatrix zu finden, die das beobachtete Bild auf die zugrunde liegende Struktur von Clustern und Ausreißern abbildet. Diese Anpassungen tragen dazu bei, viele Modellierungsoptionen in Finanznetzwerken zu berücksichtigen.

  • 00:30:00 In diesem Abschnitt des Videos erklärt Andreea Minca den Prozess der Ermittlung einer Partitionsmatrix und der Permutation von Knoten, um die Struktur von Clustern und Ausreißern in Finanznetzwerken zu identifizieren. Der Algorithmus basiert auf der Ermittlung einer Partitionsmatrix, die angibt, welche Knoten zum selben Cluster gehören, während beliebige Einträge Ausreißer darstellen. Um das Konzept zu veranschaulichen, zeigt Minca ein Beispiel eines koreanischen Finanznetzwerks, bei dem das Ziel des Algorithmus darin besteht, die korrekte Identifizierung jedes im Netzwerk vorhandenen Sektors zu ermitteln.

  • 00:35:00 Andreea Minca, Professorin an der Cornell ORIE, spricht über ihre Arbeit bei der Erstellung halbsynthetischer Netzwerke und dem Testen von Algorithmen. Sie erklärt, dass sie auf der Grundlage der von der Bank of Korea veröffentlichten Daten über die Höhe der Vermögenswerte und Verbindlichkeiten aller Finanzinstitute ein Netzwerk erstellt und diese auf der Grundlage eines aggregierten Flusses von jeder Versicherungsgesellschaft zu jeder Bank verbindet. Anschließend verwendet sie einen Modularitätsmaximierungsalgorithmus, um anhand des beobachteten Konnektivitätsmusters zu identifizieren, welche Finanzinstitute zu welchem Sektor gehören. Der Algorithmus führt außerdem einen Optimierungsparameter und eine Partitionsmatrixbeschränkung ein, um den Modularitätsunterschied zu minimieren.

  • 00:40:00 Andreea Minca erklärt die Herausforderung der Suche nach Partitionsmatrizen beim Clustering heterogener Finanznetzwerke, die aufgrund einer bestimmten Einschränkung ein unlösbares Problem darstellt. Um dieses Problem zu lösen, wird eine Lockerung des Problems eingeführt, bei der die Einträge der Matrix zwischen 0 und 1 liegen und die Matrix positiv semidefinit ist. Die Heterogenität des Problems wird durch Strafterme angegangen, wobei eine Strafe für den Diagonalterm potenzielle Ausreißer bestraft, deren Grad über der normalen Variation liegt. Zwei Abstimmungsparameter steuern die Stärke der diagonalen Bestrafung und werden durch den beobachteten Grad der Knoten bestimmt, wodurch Ausreißer und solche mit einer starken Community-Mitgliedschaft identifiziert werden können. Das im Video verwendete Beispiel der koreanischen Industrie ist eine Momentaufnahme der Expositionen im koreanischen Netzwerk und enthält keine Zeitreihenkomponente.

  • 00:45:00 Andreea Minca von Cornell ORIE diskutiert das Clustering heterogener Finanznetzwerke und wie man Beispielnetzwerke neu erstellen kann, die mit aggregierten Werten konsistent sind, indem man einen Gibbs-Sampler zum Füllen von Lücken verwendet. Die Leistung des Algorithmus kann über die Fehlklassifizierungsrate und die Wiederherstellungswahrscheinlichkeit getestet werden, die mit zunehmender Stichprobengröße mit einer bestimmten Geschwindigkeit gegen eins tendiert. Am Beispiel des koreanischen Sektors demonstriert Minca, wie die Konnektivitätsmatrix die Verbindungswahrscheinlichkeit zwischen verschiedenen Sektoren darstellen kann und wie die Clustering-Ergebnisse aus der Matrix gewonnen werden.

  • 00:50:00 Andreea Minca diskutiert die Herausforderung, den richtigen Finanzsektor für jede Institution in einem Netzwerk anhand ihrer Konnektivitätsmuster zu identifizieren. Sie erklärt, dass ein Algorithmus gegenüber der Heterogenität der Konnektivität robust sein muss und dass Fehlklassifizierungsraten als Leistungskriterium verwendet werden. Minca vergleicht die Fehlklassifizierungsraten des von ihr vorgestellten Algorithmus mit anderen bestehenden Algorithmen und hebt hervor, dass der auf Spektral-Clustering basierende Algorithmus am schlechtesten abschneidet. Dies unterstreicht die Notwendigkeit, bestehende Algorithmen zu optimieren, um den Problemen Rechnung zu tragen, mit denen Finanznetzwerke konfrontiert sind. Darüber hinaus geht Minca kurz auf die Anwendungen des Algorithmus im Investmentportfoliomanagement ein. Durch die Wiederherstellung eines Netzwerks überlappender Portfolios können die Interaktionsstärken von Institutionen anhand ihrer Portfoliobestände gemessen werden, was möglicherweise bei der Investitionsentscheidung hilfreich sein könnte.

  • 00:55:00 Andreea Minca diskutiert den Clustering-Algorithmus und wie er auf überlappende Finanzportfolios angewendet werden kann, um Risiken effizient zu verteilen und Investitionen zu diversifizieren. Durch die Gruppierung von Portfolios basierend auf ihrer Stärke und dem Grad der Überlappung ist der Algorithmus in der Lage, fünf Cluster wiederherzustellen, die im Laufe eines Jahrzehnts größer geworden sind, was auf eine zunehmende Überlappung hinweist. Dies stellt ein Tool zum Generieren von Clustern bereit, das effektiver ist als andere bestehende Clustering-Methoden. Darüber hinaus diskutiert Minca, wie ein zusätzlicher Algorithmus Lücken im koreanischen Beispiel füllt und individuelle Netzwerke erstellt, die mit den aggregierten Daten der Regierung konsistent sind.

  • 01:00:00 Andreea Minca diskutiert die Frage der Diversifizierung durch Clustering-Algorithmen für Finanznetzwerke. Sie zeigt, dass ein Cluster mit extrem hoher Inter-Cluster-Konnektivität und ein anderer ohne Konnektivität keine Diversifizierung bewirken würde. Stattdessen stellt sie einen Ansatz vor, der fünf Alternativen zur Diversifizierung im Rahmen eines Cluster-Risiko-Paritäts-Ansatzes identifiziert. Sie beantwortet auch Fragen zum Vorabdruck ihrer Arbeit, zur Verfügbarkeit eines Tools und zur Empfindlichkeit des Algorithmus gegenüber der Anzahl der Cluster und schlägt gleichzeitig die Verwendung von Standardinvestitionskategorien vor, um die Leistung von Clustering-Algorithmen zu quantifizieren.

  • 01:05:00 Andreea Minca diskutiert das Thema Clustering-Algorithmen und die Wiederherstellung von Clustern am Beispiel der Wiederherstellung von fünf Clustern aus fünf Anlagestrategien. Sie weist außerdem darauf hin, dass es ohne gute Domänenkenntnisse oder Annahmen über die Anzahl der Cluster schwierig sein kann, die Clustering-Ergebnisse verschiedener Auswahlmöglichkeiten zu vergleichen. Allerdings liegen hierzu keine theoretischen Ergebnisse vor, was die Bedeutung fundierter Entscheidungen beim Einsatz von Clustering-Algorithmen unterstreicht.
Andreea Minca (Cornell ORIE): Clustering Heterogeneous Financial Networks
Andreea Minca (Cornell ORIE): Clustering Heterogeneous Financial Networks
  • 2022.04.27
  • www.youtube.com
Abstract: For the degree corrected stochastic block model in the presence of arbitrary or even adversarial outliers, we develop a convex-optimization-based c...