Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Martin Scholl (Universität Oxford): „Studying Market Ecology Using Agent-Based Models“
Martin Scholl (Universität Oxford): „Studying Market Ecology Using Agent-Based Models“
Martin Scholl, ein Forscher von der Universität Oxford, hat sich intensiv mit dem Studium der Marktökologie mithilfe agentenbasierter Modelle befasst. Im Gegensatz zu traditionellen Ansätzen, die auf Annahmen wie der Hypothese eines effizienten Marktes beruhen, stellt Scholl die im neoklassischen Finanzwesen häufig verwendete Gleichgewichtstheorie mit rationalen Erwartungen in Frage. Er glaubt, dass diese Theorie von allen Teilnehmern ein perfektes Verständnis der realen Welt verlangt, was angesichts der kognitiven Einschränkungen sowohl von Privatanlegern als auch von Fondsmanagern unrealistisch ist. Stattdessen plädiert er für die Anwendung von Werkzeugen aus der Biologie zur Analyse realer Finanzdaten und bietet so eine neue Perspektive für das Verständnis der Finanzmärkte.
Um die Marktökologie zu erforschen, vergleicht Scholl Anlagestrategien mit Arten in der Biologie, wobei einzelne Anleger Individuen einer bestimmten Art repräsentieren. Der mit einer bestimmten Strategie investierte Gesamtreichtum ist vergleichbar mit der Häufigkeit oder Gesamtpopulationsgröße dieser Art. In einem Spielzeugmodell eines Investmentspiels stellt Scholl ein vereinfachtes Szenario vor, in dem Agenten wählen können, ob sie ihr Vermögen auf einem Geldmarktkonto belassen oder in eine Aktie investieren möchten, die Dividenden zahlt. Dieses Modell ermöglicht die Untersuchung verschiedener Anlagestrategien und Einwände gegen die neoklassische Annahme perfekter Rationalität.
Scholl identifiziert verschiedene Anlagestrategien, die in agentenbasierten Modellen zur Untersuchung der Marktökologie eingesetzt werden. Die erste ist eine völlig rationale Strategie, bei der der Nettoinventarwert zwischen Aktien und Bargeld aufgeteilt wird. Ein Value-Investor schätzt die Wachstumsrate der Dividende, um Zukunftsprognosen zu erstellen und den zukünftigen Kurs der Aktie zu verstehen. Bei der zweiten Strategie handelt es sich um Trendfolger, die aktuelle Preise analysieren und Trends ableiten. Die dritte Strategie umfasst Lärmhändler, die in den Markt eintreten, um den Liquiditätsbedarf zu decken, aber kurzfristig nicht preissensibel sind. Allerdings ist ihr Prozess des umkehrenden Rauschens auf einer langen Zeitskala mit dem Grundwert verbunden.
Um Marktmechanismen zu simulieren und Marktökologie zu untersuchen, nutzen Scholl und sein Team agentenbasierte Modelle mithilfe von Softwarepaketen. Sie stellen die Vergleichbarkeit zwischen verschiedenen Durchläufen des Modells sicher, indem sie Ausstattungen festlegen und die anfänglichen Ausstattungen auf Individuen verschiedener Arten aufteilen und so den relativen Anteil verfolgen. Die Simulationen laufen über einen Zeitraum von 200 Jahren und ermöglichen die Beobachtung des durchschnittlichen jährlichen Ertrags für jede Art. Interessanterweise stellen sie fest, dass es für jede Strategie unabhängig von der Häufigkeit mindestens eine Region gibt, in der sie am profitabelsten ist.
In seinen Experimenten untersucht Scholl das Verhalten von Trendfolgern und die Auswirkungen der Reinvestition von Gewinnen. Er beobachtet, dass der Markt die meiste Zeit in einer instabilen, chaotischen Region mit großen Ausreißern verbringt, was zu fleckigem Rauschen führt. Wenn Anleger ihre Gewinne reinvestieren, schwanken die Verlaufskurven um einen identifizierten zentralen Punkt, konvergieren jedoch nicht vollständig in Richtung dieses. Eine zunehmende Konzentration von Trendfolgern führt zu einer höheren Volatilität der Renditen. Scholl führt die schnelle Abkehr von den Trendfolgern auf die Rationalität der Anleger und eine positive Autokorrelation im Dividendenprozess zurück.
Scholl erklärt, dass agentenbasierte Modelle verwendet werden können, um eine Finanzgemeinschaftsmatrix zu erstellen, ähnlich den in der Biologie verwendeten Räuber-und-Beute-Volterra-Gleichungen. Die Rendite einer bestimmten Strategie wird mit der Bevölkerungsgröße gleichgesetzt, und die Sensitivität der Rendite auf Änderungen der Bevölkerungsgröße stellt die Gemeinschaftsmatrix dar. Auf dem Finanzmarkt entsteht Wettbewerb zwischen verschiedenen Strategien, wenn Preise von Gleichgewichtspunkten abweichen. Scholl betont, dass Finanzmärkte eine Dichteabhängigkeit aufweisen, was die Wechselwirkungen zwischen Arten komplexer macht als in biologischen Systemen. Diese Dichteabhängigkeit führt zu Szenarien wie blasenartigen Preiserhöhungen, erkennt jedoch an, dass solche Situationen unrealistisch sind.
Im Kontext der Marktökologie diskutiert Scholl die praktischen Implikationen seiner Erkenntnisse. Er stellt ein lineares Modell vor, das die Artenvielfalt nutzt, um die Beziehungen zwischen verschiedenen Arten von Raubtieren zu beschreiben und so die Marktergebnisse zu beeinflussen. Dieser Ansatz unterstreicht die Mehrdimensionalität von Investitionen und zeigt, wie wichtig es ist, Strategien angemessen zu dimensionieren, um Verluste zu vermeiden oder in stark dichteabhängigen Finanzmärkten zum Opfer zu werden. Es stellt die traditionelle Ansicht in Frage, dass Aktienkurse alle verfügbaren fundamentalen Informationen widerspiegeln, und stellt Finanzmärkte als komplexe Systeme dar, die von verschiedenen Bedingungen beeinflusst werden.
Scholl geht weiter auf die Verwendung eines einfachen linearen Modells innerhalb agentenbasierter Modelle zur Untersuchung der Marktökologie ein. Durch die Analyse der Bestände und der relativen Häufigkeit der Marktaktivitäten stellte er fest, dass dieser Ansatz die von Abteilungen abgeleiteten Modelle übertraf, die Rationalität voraussetzen und Fundamentaldaten automatisch übersetzen. Er erkennt jedoch die Grenzen seines Modells an und betont die Notwendigkeit weiterer Forschung, um seinen Realismus zu verbessern. Ein Aspekt, den er anspricht, ist die Sensibilität des Modells gegenüber unterschiedlichen Rezepten und Definitionen, insbesondere in Bezug auf Trendfolge. Während Dividenden in seinem Modell eine wichtige Rolle spielen, würde die Einbeziehung realistischerer Elemente für reale Finanzmärkte zusätzliche Schritte erfordern.
In Bezug auf die Anpassungsfähigkeit der Überzeugungen der Agenten in seinem Modell weist Scholl darauf hin, dass bei Marktoperationen Fondsmanager häufig über längere Zeiträume hinweg die in Prospekten dargelegten Strategien befolgen. Dies deutet auf eine Tendenz hin zu mechanischen Asset-Allokationsprozessen hin. Infolgedessen neigt Scholl dazu, weniger adaptives Verhalten und weniger Intelligenz zu modellieren. Er betont jedoch, dass andere Forscher seiner Gruppe an der Universität Oxford aktiv die Anwendung evolutionärer Algorithmen zur Änderung von Parametern und sogar zur Entwicklung neuer Strategien erforschen.
Der Forschungsschwerpunkt von Martin Scholl liegt auf der Untersuchung der Marktökologie mithilfe agentenbasierter Modelle. Er hinterfragt traditionelle Finanztheorien und -annahmen, indem er Konzepte aus der Biologie anwendet, um die Finanzmärkte besser zu verstehen. Durch den Vergleich von Anlagestrategien mit Arten in der Biologie, die Analyse verschiedener Strategien und die Simulation von Marktmechanismen deckt Scholl die Komplexität von Finanzmärkten und das Zusammenspiel verschiedener Strategien auf. Seine Ergebnisse deuten darauf hin, dass die Finanzmärkte stark von der Dichte abhängig sind und dass die richtige Dimensionierung der Anlagestrategien von entscheidender Bedeutung ist, um Verluste zu vermeiden und in diesem dynamischen Ökosystem zur Beute zu werden. Scholls Arbeit liefert wertvolle Einblicke in die Natur von Märkten als komplexe Systeme und steht im Gegensatz zur traditionellen Ansicht, dass Aktienkurse ausschließlich fundamentale Informationen widerspiegeln.
Kevin Webster: „Wie Preisauswirkungen die Gewinn- und Verlustrechnung verzerren“
Kevin Webster: „Wie Preisauswirkungen die Gewinn- und Verlustrechnung verzerren“
In einem YouTube-Video befasst sich Kevin Webster mit der Frage, wie Preisauswirkungen buchhalterische Gewinn- und Verlustrechnungen (GuV) verzerren können. Er betont die Bedeutung einer genauen Modellierung der Preisauswirkungen für ein effektives Risikomanagement und betont die Bedeutung des Liquiditätsrisikomanagements, um zu vermeiden, dass eine illiquide Position verbleibt. Webster räumt ein, dass es verschiedene Preisauswirkungsmodelle gibt, sie sind sich jedoch bei den meisten Daten im Allgemeinen einig.
Der Vortrag befasst sich zunächst mit der Schnittstelle zwischen Preisauswirkungen und Liquiditätsrisiko und weist insbesondere darauf hin, dass die Liquidität wichtiger Märkte vor der Finanzkrise oft als selbstverständlich angesehen wurde. Webster veröffentlicht aussagekräftige Zitate, die veranschaulichen, wie Preisauswirkungen eine Illusion von Gewinn erzeugen und zu Preisverzerrungen weg von den finanziellen Werten führen. Das Ziel des Vortrags besteht darin, dieses Konzept mathematisch zu formalisieren und einen quantitativen Rahmen bereitzustellen, der auf der Schätzung der Marktauswirkungen einer Liquidation basiert, um die Illusion eines Gewinns zu beseitigen.
Webster erklärt den Preiseinfluss als ein kausales Modell für den Handel, bei dem aggressiverer Handel die Preise weiter in die Höhe treibt und umgekehrt. Preisauswirkungsmodelle werden häufig bei der Transaktionskostenanalyse und der optimalen Ausführung eingesetzt und dienen als Pre-Trade-Tools zur Schätzung der erwarteten Transaktionskosten und zur Optimierung von Ausführungsstrategien. Er präsentiert einen simulierten Transaktionskostenanalysebericht, der es Händlern ermöglicht, die Leistung ihrer Algorithmen vierteljährlich zu bewerten, wobei der Schwerpunkt auf der Minimierung des Order-Slippages liegt und sowohl mechanische Bewegungen als auch Alpha-Slippage berücksichtigt werden.
Der Redner erörtert die von der Europäischen Wertpapier- und Marktaufsichtsbehörde (ESMA) veröffentlichten Leitlinien zu Liquiditätsstresstests, bei denen die Liquidation von Vermögenswerten während Marktstressphasen simuliert wird. Um das Risiko zu reduzieren, sind die Simulation von Marktreaktionen wie Preisverwerfungen und der Einsatz von Absicherungsstrategien von entscheidender Bedeutung. Webster verweist auf verschiedene Literatur zu Liquiditätsstresstests und Preisauswirkungen auf die Gewinn- und Verlustrechnung, darunter die Arbeiten von Cascioli, Boucheron, Farmer und Regulierungsausschüssen wie ESMA und dem Baffled Committee. Er betont die Notwendigkeit von Liquiditätsstresstests, um Situationen abzumildern, die sich auf die Gewinn- und Verlustrechnung auswirken und zu hohen Liquidationskosten führen könnten.
Es wird das Konzept eines Trading Footprint eingeführt, das die verzerrende Wirkung von Preisauswirkungen auf die buchhalterische Gewinn- und Verlustrechnung misst und verschiedene Definitionen von Gewinn und Verlust miteinander verknüpft. Webster stellt ein einfaches Notverkaufsmodell vor, um die bedeutenden Schlussfolgerungen zur Bilanzierung von Gewinn und Verlust zu veranschaulichen, die im Casadio-Bouchard-Farmer-Papier gezogen werden. Er erklärt, wie die Zahl, die Händler und Plattformmanager täglich beobachten, ihre endgültige Gewinn- und Verlustrechnung überschätzt, was nach Abschluss des Handels zu einer Deflation führt. Diese Inflationseigenschaft kann jedoch in Echtzeit gemessen und angezeigt werden, was den Händlern verwertbare Informationen liefert. Webster weist darauf hin, dass Verluste bei der Positionsinflation oft vorübergehender Natur sind und von der Risikotoleranz abhängen.
Es werden die Fragen im Zusammenhang mit der Bewertung einer Aktienposition und deren Auswirkungen auf die Gewinne und Verluste eines Unternehmens erörtert. Webster betont die Unklarheit bei der Bestimmung, welche Preise zur Kennzeichnung der Aktienposition verwendet werden sollen, und den Unterschied zwischen der buchhalterischen Gewinn- und Verlustrechnung und der fundamentalen Gewinn- und Verlustrechnung, die von Handelsalgorithmen verwendet wird. Der Handels-Fußabdruck ist definiert als die Differenz zwischen buchhalterischer Gewinn- und Verlustrechnung und grundlegender Gewinn- und Verlustrechnung, wobei Unklarheiten behoben werden, wenn die Position geschlossen wird. Der Redner untersucht die Positionsinflation und geht dabei von bestimmten Annahmen aus, unter denen diese Eigenschaft gilt. Das Aufprallmodell und seine beiden Fälle, der ursprüngliche OW-Maulwurf und der von Fruehwirth und Bond untersuchte W-Maulwurf, werden ebenfalls angesprochen.
Webster erklärt, dass für ein sinnvolles Modell eine No-Arbitrage-Bedingung zwischen Lambda und Beta sowie eine Bedingung der Selbstfinanzierungsgleichung erfüllt sein müssen. Er befasst sich mit der Berechnung der erwarteten Gewinne und Verluste zum Abschlusszeitpunkt und wie der Handelsfußabdruck zu einer Verzerrung der buchhalterischen Gewinne und Verluste führt. Die Positionsinflationseigenschaft führt dazu, dass die Position während der Positionseingabephase ansteigt, während der Haltephase bestehen bleibt und sich schließlich verflüchtigt. Alle diese Aspekte können in Echtzeit auf einem Handelsbildschirm beobachtet werden und bieten Händlern wertvolle Erkenntnisse.
Webster erläutert weiter die durch Preisauswirkungen verursachten Verzerrungen in der Gewinn- und Verlustrechnung. Er erläutert, wie Händler auch ohne Alpha profitable Geschäfte tätigen können, warnt jedoch davor, dass diese Gewinne aufgrund der Transaktionskosten nur von kurzer Dauer sind. Die frühzeitige Überwachung von Preisverwerfungen ist entscheidend, um Verluste zu vermeiden. Darüber hinaus weist Webster darauf hin, dass Portfoliomanager es vorziehen, ihre Portfolios als Ganzes zu betrachten, und führt das Konzept eines stationären Portfolios ein, das die Größe und den Umsatz eines Portfolios in der mathematischen Finanzwelt steuert.
Anschließend wird das Konzept eines stationären Portfolios im Hinblick auf die Schätzung laufender Transaktionskosten untersucht. Durch das Verständnis der Zeitskala des Propagators können Händler abschätzen, in welchem Ausmaß ihre Positionen überhöht sind und welche Illusion von Gewinn sie bei der Liquidierung ihrer Positionen verlieren könnten. Webster demonstriert das Framework anhand empirischer Daten und demonstriert seine Anwendbarkeit auf reale Szenarien. Er wendet das Rahmenwerk auf ein Notverkaufsmodell an und erläutert die Unterschiede zwischen buchhalterischer Gewinn- und Verlustrechnung und fundamentaler Gewinn- und Verlustrechnung und hebt hervor, wie sie verschiedene objektive Funktionen basierend auf der Risikoaversion eines Händlers beeinflussen.
Der Redner befasst sich mit den Auswirkungen von Notverkäufen oder der Handelsaktivität anderer Marktteilnehmer auf die Gewinne und Verluste und die Position eines Händlers. Eine aggressive Absicherung kann zu Crowding-Effekten und Positionsinflation führen, was zu dauerhaften Verlusten führt. Die genaue Modellierung der Preisauswirkungen ist für ein effektives Risikomanagement von entscheidender Bedeutung. Dabei wird Wert auf die Steuerung des Liquiditätsrisikos gelegt, um zu verhindern, dass am Ende illiquide Positionen entstehen.
Webster räumt ein, dass es zwar viele verschiedene Preisauswirkungsmodelle gibt, sie sich jedoch bei den meisten Daten im Allgemeinen einig sind. Allerdings kann es zu Unterschieden im Ausmaß und in der Dauer der Dauer der Auswirkungen kommen. Vorübergehende Luxationen können einige Tage bis zu einem Monat dauern. Aus Sicht des Risikomanagements gibt es eine klare Vorgehensweise, während aus Händler- und Leistungssicht effektive Kommunikation zum Schlüsselfaktor wird. Wenn Händler verstehen, ob Gewinne und Verluste mechanisch sind oder nicht, und den mechanischen Teil entfernen, können sie sich auf das tatsächliche Alpha oder den tatsächlichen Vorteil ihrer Geschäfte konzentrieren.
Der Redner erläutert das Prinzip „Keine Preismanipulation“ und betont, dass Händler Gewinne erzielen, selbst wenn sie diese nicht aufrechterhalten können, da sie irgendwann verschwinden werden. Die Positionsinflation führt im Laufe der Zeit zu einer Deflation des Handelswerts oder zu einer sofortigen Liquidation, was zu einer Gewinn- und Verlustrechnung von Null oder sogar zu einem negativen Ergebnis führt. Daher müssen sich Händler auf andere Variablen verlassen, um nachhaltige Gewinne zu erzielen. Webster untersucht weiter die Korrelation zwischen dem anfänglichen Auswirkungszustand, den durch den Rest des Marktes verursachten Auswirkungen und den Auswirkungen der Absicherungen des Händlers und des Restes des Marktes.
Zusammenfassend liefert Kevin Webster ein umfassendes Verständnis dafür, wie Preisauswirkungen die Gewinn- und Verlustrechnung verzerren können. Er beleuchtet die zusätzlichen Kosten bei Liquiditätsregimen mit hoher Volatilität und deren Korrelation mit dem breiteren Markt und betont deren Auswirkungen auf die Verzerrung. Aus regulatorischer Sicht dürften Unternehmensanleihen und Versicherungsgesellschaften stärker von dieser Tendenz betroffen sein. Während Webster zugibt, dass ihm detaillierte Antworten für Märkte außerhalb von Aktien fehlen, liefert er eine solide mathematische Grundlage zum Verständnis der Preisauswirkungen und ihrer möglichen Verzerrung der Gewinne und Verluste.
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
Laura Leal, a researcher from Princeton University, delivered an informative presentation on the application of deep neural networks in high-frequency finance. She emphasized the limitations of conventional solutions and explored the advantages of utilizing neural networks in this domain. Leal highlighted their ability to adapt to complex factors like autocorrelation and intraday seasonality, which traditional models struggle with. By leveraging neural networks, traders can achieve optimal execution by minimizing market impact and trading smoothly.
To address concerns about the black box nature of neural networks, Leal introduced the concept of explainability. She discussed the projection of neural network control onto a lower-dimensional manifold, enabling a better understanding of the associated risks and the deviation from familiar risk sectors. The team evaluated the performance of the neural network control, comparing it with the classic closed-form PDE (partial differential equation) solution. They examined the value function, mark-to-market wealth, and relative errors in projections to assess the accuracy and effectiveness of the neural network approach.
Leal delved into the intricacies of training the neural network, emphasizing the importance of incorporating real-world data and accurate dynamics. She also proposed a multi-preference controller that allows traders to input their risk preferences, enabling quicker adaptation to new market conditions. By considering risk aversion parameters and incorporating a trader's preferences, the neural network can generate a solution to the stochastic optimization problem in high-frequency finance.
The presenter discussed the structure of the neural network used for risk control, highlighting its recurrent nature. While the network is not excessively deep, it employs a recurring structure at each time step, updating weights simultaneously. The inputs to the network include time and inventory, while the output is the control itself—determining the optimal amount of stocks to trade at each time step. To address the challenge of limited financial data availability, transfer learning is employed, simulating data using Monte Carlo methods.
Leal outlined the process of projecting the neural network control onto a linear function space using linear regression. This projection technique facilitates a better understanding of the non-linear functions of the neural network and their alignment with closed-form control solutions. The results demonstrated the impact of incorporating seasonality and risk aversion parameters on the model's reaction to the market. Additionally, the presenter emphasized the significance of gamma, which is typically set to two in the literature but showed a non-linear solution when taken as three over two.
The performance and accuracy of the neural network control in executing trades for high-frequency finance were thoroughly evaluated. Leal compared the value function, mark-to-market wealth, and relative errors in projections across different scenarios and gamma values. While the neural network exhibited superior performance, it executed trades in a non-linear manner, deviating from the known control solution. This raised questions about the decision to trade using the neural network and determining appropriate margin levels based on its divergence from the established solution.
Leal explored the benefits of the multi-preference controller approach, allowing traders to input their risk conversion parameters and start trading immediately with a pre-trained model. While the neural network solution took longer to execute than the PDE solution, it offered greater flexibility and adaptability to different risk preferences. To enhance explainability, Leal proposed a projection idea using linear regression, reducing computational burden while retaining the multi-preference capability. She also highlighted the broader applications of the neural network approximation concept, suggesting its relevance in other financial problems, such as hedging.
The training process for the neural network in high-frequency finance was discussed, emphasizing offline training to avoid latency issues associated with online reinforcement learning. The network takes time, inventory, and potentially risk aversion parameters as inputs and produces a rate as output. Leal also described the fine-tuning procedure in transfer learning, transitioning from simulated data to real data increments obtained from the Toronto Stock Exchange once the network has converged. The presenter underscored the importance of using real-world data and accurate dynamics during the training process, as it enhances the network's ability to capture the complexities of high-frequency finance.
In the subsequent section, Laura Leal provided insights into the inputs and objective function employed in the neural network for high-frequency finance. The neural network incorporates the inventory as a proportion of the average volume for a specific stock during a day, allowing for a normalized representation. The objective function is framed as a maximization problem, with the output serving as the control for optimal execution. The structure of the neural network is based on function approximation, utilizing two input nodes and four hidden layers to capture the underlying relationships.
Addressing a question about the discrepancy between two control solutions, Leal clarified that it could be interpreted as a reflection of the changing utility of the investor. By adjusting the gamma parameter, different utility functions can be employed, leading to variations in the control solutions. In their research, the team chose the gamma value of three halves based on empirical testing with actual traders, which resulted in satisfactory performance.
Leal further highlighted that the neural network's output is observable and analyzable. They can monitor the positions taken by the network and how they evolve throughout the trading day, providing transparency and insights into the decision-making process. This level of interpretability and understanding allows traders to gain confidence in the neural network's execution strategies.
The challenges associated with developing functional controls for high-frequency finance were also discussed by Leal. While an average control process can provide overall insights into trade execution, it may not accurately represent the behavior of individual trajectories. The dynamics of the market, such as the emergence of meme stocks, necessitate the adaptation of control methods to capture evolving conditions effectively.
In conclusion, Laura Leal's presentation shed light on the complexities of creating effective controls in the realm of high-frequency finance. By leveraging deep neural networks, researchers and traders can overcome the limitations of traditional models and adapt to the intricate dynamics of this domain. The incorporation of risk preferences, explainability measures, and real-world data contributes to the development of robust and adaptable control solutions. Through their work, Leal and her team offer valuable insights and solutions that pave the way for more efficient and informed decision-making in high-frequency finance.
Zihao Zhang (Oxford-Man Institute) – „Deep Learning für Market-by-Order-Daten“
Zihao Zhang (Oxford-Man Institute) – „Deep Learning für Market-by-Order-Daten“
Zihao Zhang, Postdoktorand am Oxford-Man Institute und Teil der Forschungsgruppe für maschinelles Lernen, stellt die jüngsten Arbeiten seines Teams zur Anwendung von Deep Learning auf Marktdaten nach Bestellung vor. Ihr Schwerpunkt liegt auf Marktmikrostrukturdaten, insbesondere dem Limit-Orderbuch, das wertvolle Einblicke in die allgemeine Nachfrage- und Angebotsdynamik für ein bestimmtes Finanzinstrument liefert. Durch die Kombination von Market-by-Order- und Limit-Orderbuchdaten haben Zhang und sein Team herausgefunden, dass sie die Signalvarianz reduzieren und bessere Vorhersagesignale erhalten können. Diese Anwendung ihres Modells birgt Potenzial für die Verbesserung der Handelsausführung und Market-Making-Strategien.
Zhang beginnt seinen Vortrag mit einer kurzen Einführung in Marktmikrostrukturdaten und betont dabei insbesondere die Bedeutung von Markt-nach-Order-Daten. Diese Datenquelle bietet im Vergleich zu den Limit-Orderbuchdaten, denen in der vorhandenen Literatur mehr Aufmerksamkeit geschenkt wird, hochgradig detaillierte Informationen und liefert häufige Aktualisierungen und Ereignisse. Er stellt ihr Deep-Learning-Modell vor und erläutert die Netzwerkarchitekturen, die sie für die Analyse von Markt-nach-Order-Daten entwickelt haben. Zhang betont, dass ihre Arbeit das erste Vorhersagemodell darstellt, das Markt-nach-Order-Daten zur Vorhersage hochfrequenter Bewegungen nutzt und eine alternative Informationsquelle bietet, die die Möglichkeiten für die Alpha-Entdeckung erweitert.
Als nächstes befasst sich Zhang mit dem Konzept des Limit-Order-Buchs, das als umfassende Aufzeichnung aller ausstehenden Limit-Orders für ein Finanzinstrument zu einem bestimmten Zeitpunkt dient. Er betont, dass Diagrammdaten zwar Informationen mit niedriger Frequenz liefern, der Preis einer Aktie jedoch tatsächlich durch das Limit-Orderbuch, eine multivariate Zeitreihe, dargestellt wird. Zhang erklärt, wie das Limit-Orderbuch auf der Grundlage der übermittelten Aufträge in verschiedene Preisstufen unterteilt wird, wobei jede Preisstufe aus zahlreichen kleinen Aufträgen besteht, die von verschiedenen Händlern segmentiert werden. Er erläutert auch, wie das Orderbuch aktualisiert wird, wenn neue Nachrichten eingehen, wodurch neue Positionen eingeführt, bestehende Orders storniert oder aktuelle Orders geändert werden können. Zhang weist darauf hin, dass die abgeleiteten Daten aus dem Limit-Order-Buch das Gesamtverhältnis zwischen Nachfrage und Angebot für ein bestimmtes Finanzinstrument offenbaren, und sein Ziel besteht darin, festzustellen, ob die Nutzung von Market-by-Order-Daten, die Informationen über die Auftragserteilung und -stornierung enthalten, zusätzliche Erkenntnisse liefern kann um Vorhersagen zu treffen.
Zukünftig untersucht Zhang, wie Markt-nach-Order-Daten beim Deep Learning genutzt werden können, um Marktbewegungen vorherzusagen. Obwohl die Nachrichtenzeichenfolgen in Market-Order-Daten im Vergleich zum Limit-Order-Buch geringere Ausmaße haben, bieten sie zusätzliche Informationen, die für Prognosen genutzt werden können. Zhang erklärt, wie vergangene Ereignisse in 2D-Matrizen umgewandelt werden können und so Bilder entstehen, die zur Vorhersage in ein neuronales Netzwerk eingespeist werden können. Die resultierenden Merkmale aus der Faltungsschicht können dann in die wiederkehrenden neuronalen Schichten integriert werden, um die Struktur zu lernen und zusätzliche Abhängigkeiten zu erfassen. Die letzte Ebene erstellt Vorhersagen basierend auf einem Klassifizierungsaufbau unter Verwendung von Schwellenwerten.
Zhang geht weiter auf die Netzwerkarchitektur ein, die für Vorhersagen mithilfe von Limit-Orderbuchdaten verwendet wird. In diesem Fall werden die ersten beiden Komponenten durch Nachrichten einzelner Händler ersetzt und die Faltungsschichten werden durch eine LSTM-Schicht oder Aufmerksamkeitsschicht ersetzt. Zhang erklärt kurz den Aufmerksamkeitsmechanismus, der die Einzelpunktvorhersage erleichtert und eine Encoder-Decoder-Struktur beinhaltet. Der Encoder extrahiert aus den Eingabezeiten aussagekräftige Merkmale und fasst sie in einem verborgenen Zustand zusammen, während der Decoder die Vorhersage generiert. Mithilfe der Normalisierung wird anhand des Mittelpreises ermittelt, ob es sich bei einer Order um einen Kauf oder Verkauf handelt.
Im folgenden Abschnitt stellt Zhang die Ergebnisse ihres Modells vor, das mit einer Gruppe von Assets trainiert, auf einen ähnlichen Maßstab normalisiert und mit verschiedenen Modellen wie dem einfachen linearen Modell, dem mehrschichtigen Perzeptron, dem LSTM und dem Aufmerksamkeitsmodell getestet wurde, wobei beide Grenzreihenfolgen berücksichtigt wurden Buchdaten und reine Umgebungsdaten. Die Ergebnisse deuten darauf hin, dass Vorhersagesignale aus den Umgebungsdaten eine geringere Korrelation mit den Signalen aus dem Limit-Orderbuch aufweisen, was darauf hindeutet, dass eine Kombination dieser beiden Quellen die Signalvarianz verringern, von der Diversifizierung profitieren und bessere Vorhersagesignale liefern kann. Daher weist ein Ensemblemodell, das die Vorhersagesignale beider Datentypen mittelt, die beste Leistung auf.
Zhang geht weiter auf die potenziellen Vorteile der Einbeziehung von Market-by-Order-Daten (MBO) in Vorhersagen ein und hebt die Möglichkeit hervor, mit diesen Daten Feature-Engineering durchzuführen. Er präsentiert die Ergebnisse für Vorhersagehorizonte im Bereich von zwei bis 20 Ticks im Voraus und weist auf ähnliche Verhaltensweisen hin, die für 50 und 100 Ticks im Voraus beobachtet wurden. Zhang geht auch auf Fragen aus dem Publikum ein, darunter die Möglichkeit, ein einzelnes Modell unter Verwendung aller Instrumente für eine verbesserte Generalisierung zu trainieren, und die Quelle der MBO-Daten von der London Stock Exchange. Als Antwort auf die Frage eines Zuschauers, ob man sich auf NF1 statt auf PNL konzentrieren solle, stimmt Zhang zu und erkennt an, dass PNL ein relevanterer Maßstab für den Erfolg ist.
Zhang erörtert außerdem die Verwendung von Vorhersagesignalen und verschiedene Möglichkeiten, sie zu definieren, z. B. die Verwendung eines Rohsignals oder das Festlegen eines Schwellenwerts basierend auf Softmax-Wahrscheinlichkeiten. Er fasst die wichtigsten Punkte des Papiers zusammen, in denen die Modellierung von Market-by-Order-Daten (MBO) anstelle von Limit-Orderbuchdaten und das Testen von Deep-Learning-Modellen, einschließlich des LSTM-Retentionsmechanismus, vorgeschlagen wird. Die Ergebnisse zeigen, dass eine Kombination aus MBO- und Limit-Orderbuchdaten die besten Ergebnisse liefert. Zhang geht auf Fragen des Publikums zur Autokorrelation zwischen Marktbewegungen, zum Herausfiltern von Rauschgeschäften und zur Motivation für die Verwendung von CNN-Ebenen bei der Modellierung von Limit-Order-Bildern ein.
Im folgenden Abschnitt erklärt Zhang, wie das Auftragsbuch als räumliche Struktur behandelt werden kann, die mithilfe von Convolutional Neural Networks (CNNs) effektiv erkundet werden kann. Die Verwendung eines CNN zum Extrahieren von Informationen aus jedem Preisniveau hat sich für Vorhersagen als wertvoll erwiesen. Die Schicht des langen Kurzzeitgedächtnisses (LSTM) wird den mehrschichtigen Perzeptronen vorgezogen, da sie den zeitlichen Datenfluss aufrechterhält und vergangene Ereignisse für die Erstellung von Vorhersagen zusammenfasst. Zhang weist darauf hin, dass die Vorteile der Verwendung eines Aufmerksamkeitsmechanismus aufgrund der Natur finanzieller Zeitreihen begrenzt sind. Das Papier enthält eine detaillierte Beschreibung der in ihrem Modell verwendeten Hyperparameter.
Zhang geht auf die Bedenken hinsichtlich der großen Anzahl von Parametern ein, die in neuronalen Netzwerkmethoden verwendet werden, und ihrer Wirksamkeit bei der Vorhersage des Aktienmarktes. Er räumt ein, dass die Fülle an Parametern Anlass zur Kritik geben kann, betont jedoch, dass sein Team nur wenige modellspezifische Parameter verfeinert hat. Sie haben noch nicht darüber nachgedacht, die Geld-Brief-Spanne als Erfolgskriterium zu verwenden, erkennen aber das Potenzial für weitere Untersuchungen. Zhang glaubt, dass ihr Modell einen praktischen Wert für die Handelsausführung und Market-Making-Strategien hat. Er erwähnt jedoch, dass, wenn man beabsichtigt, den Spread zu überschreiten, ein Downsampling der Daten erforderlich sein kann, da die häufigen Aktualisierungen der Orderbuchdaten die Handelsausführung erschweren können. Schließlich aggregieren sie bei der Modellierung des Elo-Limit-Orderbuchs die Gesamtgröße auf jeder Preisebene, anstatt Informationen über einzelne Ordergrößen einzubeziehen.
Im abschließenden Abschnitt erklärt Zhang die Unterschiede zwischen Markt-nach-Order- und Markt-nach-Preis-Daten. Markt-nach-Order-Daten ermöglichen die Verfolgung einzelner Aufträge, was mit Markt-nach-Preis-Daten nicht möglich ist. Mit der richtigen Feature-Entwicklung können Market-by-Order-Daten zusätzliche Informationen liefern und Alpha generieren. Zhang erläutert auch, wie sein Modell mit Preisänderungen einer bestimmten Limit-Order umgeht, während die Größe unverändert bleibt. Jede neue Nachricht mit aktualisierten Preisen wird als neues Update behandelt und bereichert den Datensatz.
Insgesamt zeigt die Präsentation von Zihao Zhang die Anwendung von Deep Learning auf Market-by-Order-Daten und unterstreicht deren Potenzial, wertvolle Erkenntnisse aus Marktmikrostrukturdaten zu gewinnen. Durch die Kombination von Market-by-Order- und Limit-Orderbuchdaten konnte Zhangs Team die Reduzierung der Signalvarianz und die Generierung verbesserter Vorhersagesignale nachweisen. Ihre Arbeit verspricht eine Verbesserung der Handelsabwicklung und Market-Making-Strategien und leistet einen wertvollen Beitrag auf dem Gebiet der Finanzmarktanalyse.
Vineel Yellapantula (Cornell MFE '20): „Quantifizierung von Text in SEC-Einreichungen“
Vineel Yellapantula stellt sein Sommerprojekt vor, das die Anwendung von Techniken der Verarbeitung natürlicher Sprache (NLP) zum Handel mit Aktien auf der Grundlage von Textinformationen aus SEC-Einreichungen beinhaltet, wobei der Schwerpunkt insbesondere auf dem MD&A-Abschnitt liegt. Ziel des Projekts ist es, jedem Bericht der 430 auf dem US-Markt vertretenen Aktien eine Bewertung zuzuweisen und ihre Leistung zu analysieren, indem sie basierend auf der Bewertung in fünf Quantile gruppiert werden. Yellapantula verwendet traditionelle Methoden wie Kosinus und Jaccard-Ähnlichkeit, um den Ähnlichkeitswert zwischen Texten zu bestimmen, wobei sich die Jaccard-Ähnlichkeit im Laufe der Zeit als konsistenter erweist. Er untersucht auch die Erstellung eines Sentiment-Analysemodells unter Verwendung wiederkehrender neuronaler Netze (RNNs) mit Keras für einen Textdatensatz und erreicht mit seinem Modell eine beeindruckende Genauigkeit von 87,5 %.
Während der Präsentation betont Yellapantula, wie wichtig es ist, für jedes spezifische Problem die geeignete Methode auszuwählen und zusätzliche Daten einzubeziehen, um die Ergebnisse zu verbessern. Er hebt die Fülle an Informationen hervor, die durch Textdaten verfügbar sind, insbesondere in 10-K-Anmeldungen, und erwähnt, dass Faktoren, die anhand früherer Dokumente entwickelt wurden, effektiver sein können als solche, die sich ausschließlich auf das vorliegende Dokument stützen. Yellapantula zeigt verschiedene Alternativen für den Einsatz von Deep-Learning-Techniken mit Textdaten auf, darunter Glove, Word2vec, BERT und RNNs. Er schlägt außerdem vor, mehr Datenquellen wie 8-K-Einreichungen und Nachrichtenzyklen einzubeziehen, um die Vorhersagekraft der Modelle zu verbessern. Er räumt jedoch ein, dass in seiner Studie ein Auswahlfehler vorliegt, da sie sich auf Aktien mit guter Performance konzentriert, die von 2007 bis 2020 im Index vertreten waren.
Im Abschnitt zur Stimmungsanalyse erklärt Yellapantula den Prozess der Erstellung eines Modells mithilfe von RNNs mit Keras. Die Schritte umfassen die Tokenisierung des Textes, um seine Bedeutung zu verstehen, die Reduzierung der Dimensionalität durch Einbettungen und die Verwendung einer LSTM-Schicht und einer dichten Schicht mit einer Sigmoidfunktion zur Stimmungsklassifizierung. Er demonstriert die Anwendung dieses Ansatzes anhand von IMDB-Rezensionen, wobei er die Rezensionslänge auf 500 Wörter beschränkt und kürzere Rezensionen mit Nullen auffüllt, um die Konsistenz zu gewährleisten. Durch strenge Auswertungen erreicht Yellapantula mit seinem Sentiment-Analysemodell eine Genauigkeit von 87,5 %.
Darüber hinaus betont Yellapantula die Bedeutung der Informationskorrelation bei der Bestimmung der Wirksamkeit von Faktoren und ihrer Konsistenz im Zeitverlauf. Er verweist auf eine Studie, die darauf hindeutet, dass Unternehmen mit stabiler Berichterstattung tendenziell eine gute Leistung erbringen, was darauf hinweist, dass dies ein vielversprechender Faktor ist, den es zu untersuchen gilt. Abschließend dankt Yellapantula dem Publikum für sein Interesse und freut sich auf weiteres Engagement in der Zukunft.
Das Projekt von Vineel Yellapantula demonstriert die Anwendung von NLP-Techniken, um wertvolle Erkenntnisse aus Textinformationen in SEC-Einreichungen zu gewinnen. Durch die Zuordnung von Bewertungen zu Berichten und die Analyse ihrer Leistung trägt seine Arbeit zum Verständnis darüber bei, wie Sprache den Aktienhandel beeinflussen kann. Darüber hinaus zeigt seine Untersuchung der Stimmungsanalyse mithilfe von RNNs das Potenzial von Deep Learning bei der Erfassung von Stimmungen aus Textdaten. Durch eine sorgfältige Auswahl der Methodik und die Einbindung zusätzlicher Datenquellen betont Yellapantula die Möglichkeit, die Genauigkeit und Wirksamkeit solcher Modelle zu verbessern.
Peter Carr (NYU) „Stoptions“ feat. Lorenzo Torricelli (Universität Parma)
Peter Carr (NYU) „Stoptions“ feat. Lorenzo Torricelli (Universität Parma)
Peter Carr stellt ein Finanzprodukt namens „Stopptions“ vor, das Funktionen von Terminkontrakten und Put-Optionen kombiniert. Mit Stoppoptionen kann der Eigentümer ungünstige Preisänderungen vermeiden, indem er ein bermudanisches Put-Optionselement einbaut. Carr erklärt das Konzept der Optionen und liefert ein Beispiel für eine dreitägige Option mit verschiedenen damit verbundenen Etagen. Anschließend geht er auf die Bewertung von eintägigen und zweitägigen Stopps ein, wobei letztere über zwei Etagen verfügen und die Flexibilität haben, entweder am ersten oder am zweiten Tag auszuüben.
Carr untersucht darüber hinaus die Stopptionsbewertung für längere Zeiträume, indem er sich mit der Rückwärtsrekursion, der Bewertung eines verheirateten Puts und der Verwendung von Pseudosummen befasst. Er schlägt vor, die logistische Verteilung zu nutzen, um Preisänderungen bei verheirateten Put-Optionen darzustellen. Der Wert von Stoptions kann mithilfe einfacher Formeln für „At-the-Money“-Optionen ermittelt werden, und Bewertung und Absicherung können analytisch erfolgen.
Carr schließt den Artikel mit einer Diskussion der Herausforderungen ab, die mit der Einführung solcher Optionen durch den Markt verbunden sind. Er betont, wie wichtig es ist, einen Käufer und einen Verkäufer für diese Produkte zu finden, und teilt seine Gespräche mit potenziellen Käufern und Verkäufern. Darüber hinaus räumt Carr ein, dass das Stoptions-Modell eine Alternative zu bestehenden Modellen wie Black-Scholes und Bachelier darstellt, aber möglicherweise nicht für jede Situation optimal geeignet ist. Dennoch betont er, dass ihr Modell darauf abzielt, die Vielzahl binärer Operationen mit besonderer Bedeutung im Finanzwesen zu erfassen.
In einem späteren Abschnitt schlagen Carr und Lorenzo Torricelli ein „Stopptions“-Modell vor, das ein konjugiertes Paradigma und eine logistische Verteilung verwendet. Dieses Modell bietet Flexibilität in der Laufzeitstruktur mit einem einzigen Parameter und ermöglicht die Anpassung verschiedener Laufzeitstrukturen auf einmal. Allerdings passt es möglicherweise nicht perfekt zum Markt, da die implizite Volatilität nach unten zeigt. Die Autoren erkennen die Grenzen ihres Modells an und erkennen die unzähligen binären Operationen im Finanzwesen an, die ihr Modell erfassen soll. Sie diskutieren die Optionalität zwischen einem Streik und einer einzelnen Option sowie die wiederholte Optionalität durch Pseudosummierung. Der Abschnitt endet mit gegenseitiger Wertschätzung und Vorfreude auf den Besuch der Seminare des jeweils anderen.
Lorenzo Torricelli (Universität Parma) – „Additive Logistikprozesse in der Optionspreisgestaltung“
Lorenzo Torricelli (Universität Parma) – „Additive Logistikprozesse in der Optionspreisgestaltung“
Lorenzo Torricelli, ein angesehener Professor an der Universität Parma, befasst sich mit den Feinheiten der Optionspreisgestaltung, indem er das additive Logistikmodell und die selbstähnliche Spezifikation untersucht. In seiner aufschlussreichen Präsentation erläutert er die Formel für die Preisgestaltung von Vanilla-Optionen mithilfe dieser innovativen Modelle und veranschaulicht deren Anwendung anhand eines Dichtevergleichs zwischen dem logistischen Preismodell und traditionellen Normalmodellen.
Darüber hinaus führt Torricelli eine Benchmark-Analyse der kumulativen Termstruktur für das Logistikmodell im Vergleich zu einer linearen Drehung der Termstruktur für homogene Modelle durch. Seine aufschlussreichen Beobachtungen zeigen, dass das Logistikmodell deutlich mehr Flexibilität bei der Gestaltung der Termstruktur bietet und damit einen bemerkenswerten Vorteil gegenüber herkömmlichen Ansätzen bietet.
Um ein umfassendes Verständnis zu ermöglichen, untersucht Torricelli auch die mit diesen Modellen verbundenen Volatilitätsflächen. Er stellt fest, dass im Modell eine positive Verzerrung vorliegt, die auf die verzerrte Verteilung der logarithmischen Erträge und die Wölbung der logistischen Verteilung zurückzuführen ist. Er betont jedoch, dass es in der Logistikverteilung selbst keine Schiefe gibt, da sie symmetrisch ist. Torricelli erörtert außerdem die Auswirkungen modaler Parameter auf die Struktur der Volatilitätsterme und erkennt das Potenzial für Verbesserungen bei der gewählten Parametrisierung an.
Abschließend betont Torricelli, dass die aus diesen Modellen abgeleiteten Optionsformeln explizit und bekannt sind und ihre praktische Umsetzung erleichtern. Besonders lobt er die beeindruckende Geschwindigkeit, die beim Leistungstest gezeigt wurde. Als Beweis für Transparenz und akademische Zusammenarbeit plant Torricelli, den mit diesen Modellen verbundenen Code öffentlich zugänglich zu machen, was Forschern und Praktikern gleichermaßen zugute kommt.
Yumeng Ding (Cornell MFE '20) – „Interpretation von Modellen für maschinelles Lernen“
Yumeng Ding (Cornell MFE '20) – „Interpretation von Modellen für maschinelles Lernen“
Yumeng Ding, ein erfahrener Forscher, befasst sich mit der Interpretation von Modellen des maschinellen Lernens für Aktienkursvorhersagen. In ihrer umfassenden Analyse untersucht sie eine Reihe von Interpretierbarkeitsmethoden, darunter partielle Abhängigkeitsdiagramme, Bedeutung von Permutationsmerkmalen, Kantenstatistiken und LIME, um Licht auf das Innenleben dieser Modelle zu werfen. Durch den Einsatz dieser Methoden möchte Ding den Beitrag einzelner Faktoren und ihre interaktiven Auswirkungen bei der Vorhersage von Aktienkursen entschlüsseln.
Dings Studie dreht sich um drei Arten von Faktoren: Technik, Qualität und Wert, die als Eingaben für verschiedene Modelle des maschinellen Lernens wie Klassifikatoren und Regressionen verwendet werden. Mithilfe der zuvor erwähnten Interpretationsmethoden entschlüsselt sie die komplizierten Beziehungen zwischen diesen Faktoren und Aktienkursprognosen. Durch rigoroses Backtesting entdeckt Ding, dass nichtlineare Modelle lineare Modelle hinsichtlich der Leistung übertreffen. Darüber hinaus stellt sie fest, dass die Auswirkungen verschiedener Faktoren zeitliche Schwankungen aufweisen, was die dynamische Natur der Aktienkursvorhersage unterstreicht. Letztendlich identifiziert Ding AdaBoost als das am besten geeignete Modell für sein spezifisches Szenario.
Wichtig ist, dass Ding die Bedeutung von Interpretierbarkeitsmethoden für das Verständnis von Modellen des maschinellen Lernens hervorhebt. Sie betont, dass der Vektoransatz zwar schnelle Einblicke in die prädiktivsten Interaktionen liefert, die Qualität dieser Interaktionen jedoch nur unzureichend aufdeckt. Ding betont den Wert der Verwendung zweidimensionaler Teilabhängigkeitsdiagramme zur effektiven Visualisierung einfacherer Interaktionen. Darüber hinaus empfiehlt sie die Liniendiagrammmethode, um die Feinheiten einzelner Interaktionen zu untersuchen und lokale Effekte zu visualisieren, sofern die Daten ausreichend frei von Rauschen sind.
Ding fasst ihre Erkenntnisse zusammen und betont zwei wichtige Erkenntnisse aus ihrem Projekt. Erstens bestätigt sie, dass maschinelle Lernmodelle aufgrund ihrer Fähigkeit, komplexe Interaktionseffekte zu erfassen, in den meisten Szenarien lineare naive Regressionen übertreffen. Zweitens betont sie die Machbarkeit der Interpretation von Modellen des maschinellen Lernens durch den Einsatz verschiedener Interpretationsmethoden. Diese Techniken ermöglichen es Forschern, die individuellen Beiträge von Faktoren aufzuklären und ihre interaktiven Einflüsse auf Vorhersagen zu verstehen.
Silvia Ruiz (Cornell MFE '20): „Wie man Aktienbewegungen mithilfe von NLP-Techniken vorhersagt“
Silvia Ruiz (Cornell MFE '20): „Wie man Aktienbewegungen mithilfe von NLP-Techniken vorhersagt“
Silvia Ruiz, eine kürzliche Absolventin des Cornell MFE-Programms, teilt Erkenntnisse aus ihrem Projekt, das sich auf die Vorhersage von Aktienkursen mithilfe von NLP-Techniken (Natural Language Processing) konzentriert. Das Ziel der Forschung ihres Teams bestand darin, den Zusammenhang zwischen Unternehmensanmeldungen, wie z. B. 10-K- und 10-Q-Berichten, und den daraus resultierenden Auswirkungen auf die Aktienkurse zu untersuchen. Um dies zu erreichen, sammelten sie einen umfangreichen Datensatz bestehend aus 1.095 Berichten von der EDGAR-Website, die 50 Unternehmen in fünf Sektoren des S&P 500 umfassten.
Zunächst experimentierten Ruiz und ihr Team mit wörterbuchbasierten Modellen, stießen jedoch auf Einschränkungen in ihrer Wirksamkeit. Um dieses Problem anzugehen, verwendeten sie fortschrittliche Methoden wie das Word-to-Back-Modell und Finberg, die sich als entscheidend für das Verständnis der in den Unternehmensunterlagen enthaltenen kontextuellen Nuancen erwiesen. Darüber hinaus verwendeten sie verschiedene Stimmungsmaße, darunter Wortpolarität und -komplexität, sowie ein xg-Boost-Modell, um Aktienkursbewegungen vorherzusagen.
Die Genauigkeit ihrer Vorhersagen wurde über zwei verschiedene Zeitrahmen bewertet. Kurzfristig erreichte ihr Modell eine bemerkenswerte Genauigkeit von 61 %, während es langfristig eine respektable Genauigkeit von 53 % zeigte. Indem sie diese Prognosen als Signale für Anlageentscheidungen nutzten, übertrafen sie ein gleichgewichtetes Portfolio. Ruiz betont jedoch die Notwendigkeit weiterer Forschung in verschiedenen Sektoren, um die Präzision und Generalisierbarkeit ihrer Ergebnisse zu verbessern.
Silvia Ruiz schließt ihre Diskussion ab, indem sie großzügig ihre Kontaktinformationen zur Verfügung stellt und einen Link zum Repository ihres Projekts auf Github bereitstellt. Diese Geste ermutigt zu Folgeanfragen und fördert die Zusammenarbeit bei der Weiterentwicklung des Verständnisses und der Anwendung von NLP-Techniken im Bereich der Aktienkursvorhersage.
Charles-Albert Lehalle: „Ein Versuch, die Verarbeitung natürlicher Sprache zu verstehen“
Charles-Albert Lehalle: „Ein Versuch, die Verarbeitung natürlicher Sprache zu verstehen“
In dieser Videopräsentation befassen sich Charles-Albert Lehalle und sein Team mit den Anwendungen der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) im Finanzbereich. Ihre Diskussion dreht sich um drei Schlüsselbereiche: Stimmungsanalyse, Aktienkursvorhersage und Transaktionskostenmodellierung. Sie erkennen die mit NLP verbundenen Herausforderungen an, wie etwa das Risiko einer Überanpassung und Voreingenommenheit bei Einbettungen, und schlagen mögliche Lösungen vor, einschließlich Multitasking-Lernen und der Erweiterung von Lexika. Das Team untersucht sowohl das Potenzial als auch die Grenzen von NLP in der Finanzbranche und betont, wie wichtig es ist, den Kontext und die Sprachmuster in verschiedenen Sektoren zu verstehen.
Lehalle und sein Team präsentieren ihre eigenen Experimente mit NLP-Techniken und liefern wertvolle Erkenntnisse darüber, wie NLP Informationen komprimieren und aussagekräftige Indikatoren für Finanzanalysten bereitstellen kann. Sie verdeutlichen die Herausforderungen beim Einsatz von NLP im Finanzwesen, einschließlich der Anforderungen an domänenspezifischem Wissen und der Schwierigkeit, aus unstrukturierten Textdaten aussagekräftige Informationen zu extrahieren. Es werden auch ethische Bedenken im Zusammenhang mit dem Einsatz von NLP im Finanzwesen erörtert, beispielsweise die Nutzung von Social-Media-Daten für Handelszwecke.
Während der Präsentation teilt Charles-Albert Lehalle sein Fachwissen und Wissen zu verschiedenen NLP-Themen. Er erläutert den Einsatz lexikonbasierter und einbettungsbasierter NLP-Methoden im Finanzwesen und schlägt eine Kombination beider Ansätze zur Erfassung lexikalischer und probabilistischer Merkmale in Textdaten vor. Die Herausforderungen bei der Unterscheidung zwischen Synonymen und Antonymen innerhalb von Einbettungen werden angesprochen, und Lehalles Team erforscht generative Modelle, um die Struktur und Stimmung von Texten zu steuern. Es wird betont, wie wichtig es ist, Einbettungen und Referenzmodelle zu verstehen, beispielsweise Matrizen, die gemeinsame Wortverteilungen darstellen.
Lehalle untersucht weiter die Bedeutung des Kontexts im NLP und diskutiert, wie Einbettungen auf der Grundlage des Kontexts für positive und negative Wörter voreingenommen werden können. Er erklärt die Verwendung von Markov-Ketten zur Strukturierung von Referenzmatrixmodellen und stellt Experimente zur Identifizierung von Synonymen innerhalb von Einbettungen vor. Die Einschränkungen von NLP bei der Erfassung von Firmennamen und den damit verbundenen Polaritäten werden anerkannt, ebenso wie der Vorschlag für Multitasking-Lernen für überwachte Einbettungen. Die Redner gehen auch auf das Ungleichgewicht zwischen positiven und negativen Wörtern im Loughran-McDonald Lexikon und die Herausforderungen bei der Verarbeitung von Ironie in Finanztexten ein.
Die Präsentation endet mit einem Überblick über ein Projekt von Sylvia Ruiz, einer Absolventin des Cornell Financial Engineering. Das Projekt konzentriert sich auf die Vorhersage von Aktienkursen mithilfe von NLP-Techniken, insbesondere durch das Ausschneiden von Managementdiskussionsabschnitten aus 10-K- und 10-Q-Einreichungen von 50 S&P 500-Unternehmen und die Analyse der Stimmung, um deren Auswirkungen auf die Aktienkurse zu bewerten. Lehalle erörtert die Grenzen wörterbuchbasierter Modelle und erklärt, wie ihr Team das Wörterbuch erweiterte, FinBERT zum Verständnis des Kontexts einsetzte und verschiedene Funktionen zur Messung der Stimmung nutzte. Sie erzielten sowohl kurz- als auch langfristig eine bessere Performance als ein gleichgewichtetes Portfolio.
Zusammenfassend beleuchten Charles-Albert Lehalle und sein Team die Potenziale und Herausforderungen von NLP im Finanzwesen. Sie bieten Einblicke, Experimente und Strategien zur effektiven Anwendung von NLP-Techniken und betonen gleichzeitig die Bedeutung eines verantwortungsvollen Einsatzes und eines tiefen Verständnisses sowohl der Technologie als auch des Finanzbereichs.