Commercio quantitativo - pagina 7

 

Martin Scholl (Università di Oxford): "Studiare l'ecologia del mercato utilizzando modelli basati su agenti"



Martin Scholl (Università di Oxford): "Studiare l'ecologia del mercato utilizzando modelli basati su agenti"

Martin Scholl, un ricercatore dell'Università di Oxford, ha approfondito lo studio dell'ecologia del mercato utilizzando modelli basati su agenti. A differenza degli approcci tradizionali che si basano su ipotesi come l'ipotesi del mercato efficiente, Scholl contesta la teoria dell'equilibrio delle aspettative razionali comunemente impiegata nella finanza neoclassica. Crede che questa teoria richieda a tutti i partecipanti di avere una perfetta comprensione del mondo reale, il che non è realistico dati i limiti cognitivi sia degli investitori al dettaglio che dei gestori di fondi. Invece, sostiene l'applicazione di strumenti della biologia per analizzare i dati finanziari del mondo reale, offrendo una nuova prospettiva sulla comprensione dei mercati finanziari.

Per esplorare l'ecologia del mercato, Scholl paragona le strategie di investimento alle specie in biologia, con i singoli investitori che rappresentano individui di una data specie. La ricchezza aggregata investita utilizzando una particolare strategia è paragonabile all'abbondanza o alla dimensione totale della popolazione di quella specie. In un modello giocattolo di un gioco di investimento, Scholl introduce uno scenario semplificato in cui gli agenti possono scegliere di lasciare la loro ricchezza in un conto del mercato monetario o investire in azioni che pagano dividendi. Questo modello consente l'esame di varie strategie di investimento e obiezioni all'assunzione neoclassica di perfetta razionalità.

Scholl identifica diverse strategie di investimento impiegate nei modelli basati su agenti per studiare l'ecologia del mercato. La prima è una strategia perfettamente razionale, in cui il valore patrimoniale netto è diviso tra azioni e contanti. Un investitore di valore stima il tasso di crescita del dividendo per fare previsioni future e comprendere il prezzo futuro del titolo. La seconda strategia coinvolge i follower di tendenza che analizzano i prezzi recenti ed estrapolano le tendenze. La terza strategia comprende i noise trader che entrano nel mercato per soddisfare le esigenze di liquidità ma non sono sensibili al prezzo su una scala temporale breve. Tuttavia, il loro processo di rumore di inversione della media è connesso al valore fondamentale su una scala temporale lunga.

Per simulare i meccanismi di mercato e studiare l'ecologia del mercato, Scholl e il suo team utilizzano modelli basati su agenti con l'aiuto di pacchetti software. Garantiscono la comparabilità tra le diverse esecuzioni del modello fissando le dotazioni e suddividendo le dotazioni iniziali tra individui di specie diverse, tenendo traccia della quota relativa. Le simulazioni si estendono su un arco di 200 anni, consentendo l'osservazione del rendimento medio annuo per ciascuna specie. È interessante notare che ogni strategia ha almeno una regione in cui è più redditizia, indipendentemente dalla sua abbondanza.

Nei suoi esperimenti, Scholl esamina il comportamento dei trend followers e l'impatto del reinvestimento dei profitti. Osserva che il mercato trascorre la maggior parte del suo tempo in una regione instabile e caotica con grandi valori anomali, con conseguente rumore maculato. Quando gli investitori reinvestono i loro profitti, le traiettorie fluttuano attorno a un punto centrale identificato ma non convergono interamente verso di esso. L'aumento della concentrazione dei trend followers porta a una maggiore volatilità dei rendimenti. Scholl attribuisce il rapido allontanamento dai trend followers alla razionalità degli investitori e all'autocorrelazione positiva nel processo dei dividendi.

Scholl spiega che i modelli basati su agenti possono essere impiegati per costruire una matrice della comunità finanziaria, simile alle equazioni di Volterra predatore e preda usate in biologia. Il rendimento di una particolare strategia è equiparato alla dimensione della popolazione e la sensibilità del ritorno ai cambiamenti nella dimensione della popolazione rappresenta la matrice della comunità. Nel mercato finanziario, la concorrenza tra diverse strategie si verifica quando i prezzi si discostano dai punti di equilibrio. Scholl sottolinea che i mercati finanziari mostrano una dipendenza dalla densità, rendendo le interazioni tra le specie più complesse che nei sistemi biologici. Questa dipendenza dalla densità porta a scenari come aumenti dei prezzi simili a bolle, ma riconosce che tali situazioni non sono realistiche.

Nel contesto dell'ecologia del mercato, Scholl discute le implicazioni pratiche delle sue scoperte. Presenta un modello lineare che utilizza l'abbondanza di specie per descrivere le relazioni tra diversi tipi di predatori, influenzando così i risultati di mercato. Questo approccio evidenzia la natura multidimensionale degli investimenti e dimostra l'importanza di strategie di dimensionamento appropriato per evitare perdite o diventare prede in mercati finanziari altamente dipendenti dalla densità. Sfida la visione tradizionale secondo cui i prezzi delle azioni riflettono tutte le informazioni fondamentali disponibili e presenta i mercati finanziari come sistemi complessi influenzati da varie condizioni.

Scholl elabora ulteriormente il suo uso di un semplice modello lineare all'interno di modelli basati su agenti per studiare l'ecologia del mercato. Analizzando le partecipazioni e la relativa abbondanza delle attività di mercato, ha scoperto che questo approccio ha superato i modelli derivati dai dipartimenti che presuppongono razionalità e traducono automaticamente i fondamentali. Tuttavia, riconosce i limiti del suo modello e sottolinea la necessità di ulteriori ricerche per migliorarne il realismo. Un aspetto che affronta è la sensibilità del modello a diverse ricette e definizioni, in particolare in relazione al trend following. Sebbene i dividendi svolgano un ruolo significativo nel suo modello, incorporare elementi più realistici per i mercati finanziari del mondo reale richiederebbe passaggi aggiuntivi.

Per quanto riguarda l'adattabilità delle convinzioni degli agenti nel suo modello, Scholl sottolinea che le operazioni di mercato spesso coinvolgono i gestori di fondi che seguono le strategie delineate nei prospetti per periodi prolungati. Ciò indica una tendenza verso processi di asset allocation meccanici. Di conseguenza, Scholl tende a modellare un comportamento meno adattivo e meno intelligenza. Tuttavia, sottolinea che altri ricercatori del suo gruppo presso l'Università di Oxford stanno esplorando attivamente l'applicazione di algoritmi evolutivi per modificare i parametri e persino innovare nuove strategie.

La ricerca di Martin Scholl si concentra sullo studio dell'ecologia del mercato utilizzando modelli basati su agenti. Sfida le teorie e le ipotesi finanziarie tradizionali applicando concetti della biologia per comprendere meglio i mercati finanziari. Confrontando le strategie di investimento con le specie in biologia, analizzando diverse strategie e simulando i meccanismi di mercato, Scholl scopre la complessità dei mercati finanziari e l'interazione tra le varie strategie. Le sue scoperte suggeriscono che i mercati finanziari dipendono fortemente dalla densità e che un adeguato dimensionamento delle strategie di investimento è fondamentale per evitare perdite e diventare prede in questo ecosistema dinamico. Il lavoro di Scholl fornisce preziose informazioni sulla natura dei mercati come sistemi complessi, contrastando la visione tradizionale secondo cui i prezzi delle azioni riflettono esclusivamente informazioni fondamentali.

  • 00:00:00 Martin Scholl dell'Università di Oxford discute il suo studio sull'ecologia del mercato utilizzando modelli basati su agenti. Spiega che invece di concentrarsi sui presupposti comuni come l'ipotesi del mercato efficiente, contesta la teoria dell'equilibrio delle aspettative razionali utilizzata nella finanza neoclassica poiché richiede che la comprensione di tutti i partecipanti corrisponda al mondo reale. Rivela anche che ci sono oltre 300 modelli fattoriali nella letteratura finanziaria, il che rende difficile determinare il migliore da utilizzare, e ci sono limiti fisici alla capacità cognitiva sia degli investitori al dettaglio che dei gestori di fondi. Inoltre, discute l'importanza di applicare strumenti dalla biologia ai dati del mondo reale per comprendere meglio i mercati finanziari.

  • 00:05:00 Martin spiega come si può studiare l'ecologia del mercato utilizzando modelli basati su agenti. Spiega che le strategie di investimento possono essere paragonate alle specie in biologia, con i singoli investitori corrispondenti agli individui di una data specie. La ricchezza aggregata investita utilizzando una particolare strategia è l'abbondanza o la dimensione totale della popolazione di quella specie. Scholl introduce un modello giocattolo di un gioco di investimento, in cui agli agenti viene data la scelta di lasciare la propria ricchezza in un conto del mercato monetario o investire in azioni che pagano dividendi. Il modello funziona con un'azione, che è un'ipotesi semplificativa che consente per la maggior parte del tempo prezzi di compensazione unici. Scholl affronta anche l'assunzione neoclassica di un perfetto investitore razionale e mette in evidenza le obiezioni a questo approccio.

  • 00:10:00 Martin Scholl spiega il concetto di ecologia del mercato utilizzando metafore tratte dalla biologia. Divide gli agenti nel mercato in base alle loro ragioni per partecipare e introduce la funzione di eccesso di domanda come un modo per definire una strategia. Spiega come viene utilizzata una funzione di segnale nel processo di investimento e come diversi fondi di investimento tendono a specializzarsi in cose diverse sulla base dell'acquisizione di informazioni e analisi. La divisione delle strategie è cruciale nei mercati in evoluzione, dove è vantaggioso specializzarsi in una particolare nicchia per ottimizzare qualcosa.

  • 00:15:00 Martin Scholl discute le diverse strategie utilizzate nei modelli basati su agenti per studiare l'ecologia del mercato. La prima strategia è una strategia perfettamente razionale in cui il valore patrimoniale netto è suddiviso tra azioni e contanti. Un investitore di valore stima il tasso di crescita del dividendo per fare una previsione, aiutando a capire il prezzo del titolo in futuro. La seconda strategia si basa sui trend followers che osservano i prezzi recenti ed estrapolano tali trend. Infine, il modello include noise trader che entrano nel mercato per soddisfare le esigenze di liquidità ma non sono sensibili al prezzo, quindi il loro segnale appare casuale su una scala temporale breve. Tuttavia, il loro processo di inversione della media è connesso al valore fondamentale su una lunga scala temporale e tornerà lentamente alla media, come stimato da Buscher e colleghi.

  • 00:20:00 Martin spiega come simulano i meccanismi di mercato utilizzando modelli basati su agenti, che consentono loro di studiare l'ecologia del mercato. A causa della moltitudine di soluzioni possibili, è difficile trattare analiticamente la simulazione. Pertanto, utilizzano un pacchetto software per simulare i diversi meccanismi di mercato. Fissano le dotazioni per garantire che i risultati siano comparabili tra le diverse esecuzioni del modello. Ripartiscono inoltre le dotazioni iniziali tra gli individui di specie diverse e tengono traccia della relativa quota. Eseguono la simulazione per 200 anni e osservano il rendimento annuo medio per ciascuna delle specie. Osservano che, per tutte e tre le strategie, esiste almeno una regione in cui sono più redditizie, anche se quella regione non è quella in cui la specie è più abbondante.

  • 00:25:00 Martin Scholl dell'Università di Oxford discute un esperimento che coinvolge i seguaci del trend, in cui i prezzi divergono dai valori fondamentali, portando a massicci profitti e perdite dovuti alla realizzazione casuale del processo dei dividendi e all'introduzione del rumore. Il sistema trascorre la maggior parte del suo progetto in una regione instabile e caotica, con grandi valori anomali che creano rumore maculato. Nel secondo esperimento, agli investitori è stato permesso di reinvestire i profitti e le traiettorie sono state tracciate in un simplex, con la ricchezza ridistribuita, ma convergevano debolmente verso il punto centrale identificato, fluttuando invece da un lato all'altro. Il sistema tende a trovarsi in una regione attorno all'attraente punto fisso identificato e il prezzo di compensazione del mercato viene annunciato ogni giorno di negoziazione, influenzando la valutazione dei trader e dei prezzi.

  • 00:30:00 Martin spiega le diverse linee di flusso ottenute attraverso gli esperimenti Monte Carlo durante l'analisi di un punto fisso in un sistema con seguaci di tendenza, investitori di valore e trader rumorosi. Lo spessore delle linee indica la quantità di ricchezza che viene ridistribuita tra le strategie su base annua, il che mostra come un'abbondanza di seguaci del trend possa causare enormi perdite nel sistema. Scholl prosegue sottolineando che il crowding funziona in modo diverso per i trend followers rispetto agli investitori di valore e che l'aumento della concentrazione dei trend followers porta a una maggiore volatilità dei rendimenti. La causa principale per cui il sistema si allontana rapidamente dai trend followers è la razionalità degli investitori e l'autocorrelazione positiva nel processo dei dividendi.

  • 00:35:00 Martin Scholl spiega come i modelli basati su agenti possono essere utilizzati per studiare l'ecologia del mercato e come si può costruire la matrice della comunità finanziaria. Scholl traccia un'analogia con le equazioni di Volterra predatore-preda utilizzate nella dinamica della popolazione in biologia, che vengono utilizzate per descrivere le dinamiche di diverse popolazioni, vale a dire come le diverse specie interagiscono in base alla dimensione della popolazione. Osserva che questo concetto può essere applicato anche ai mercati finanziari, dove il ritorno di una particolare strategia sarebbe considerato come una dimensione della popolazione e la sensibilità del ritorno di una specie ai cambiamenti nella dimensione della popolazione rappresenterebbe la matrice della comunità.

  • 00:40:00 Martin dell'Università di Oxford spiega come le specie nell'ecologia del mercato finanziario siano in competizione con se stesse nel punto di equilibrio, poiché tutte le voci diagonali sono negative e tutte le voci positive sono positive. Il sistema è stabile in quanto il punto fisso è stabile con una matrice comunitaria che è robusta rispetto a determinati cambiamenti nella popolazione. Tuttavia, quando il mercato si allontana abbastanza dai punti di equilibrio, inizia a esserci concorrenza tra i seguaci del trend e gli investitori di valore quando ci sono parecchi investitori di valore. La dipendenza dalla densità rende le interazioni tra le specie più complesse di quella biologica ed è molto più comune in finanza che in natura. Nella regione instabile in cui i prezzi divergono, i trend followers beneficiano di altri trend followers e il prezzo continua a salire come una bolla, ma questo scenario è abbastanza irrealistico.

  • 00:45:00 Martin Scholl discute i vantaggi dei follower di tendenza su un breve lasso di tempo, in quanto possono trarre vantaggio dai follower di tendenza che sono leggermente più lenti di loro perché possono vendere al massimo o almeno non prima che il prezzo sia completamente crollato. Tuttavia, in questo modello, i trend follower sono semplici e operano sulla stessa scala temporale, indipendentemente dalla strategia di un individuo. Scholl discute anche di come un fondo passivo o un tracker dell'indice potrebbe essere rappresentato come un fondo che ha un'allocazione consensuale della ricchezza su attività specifiche. Una proporzione maggiore di indicizzatori renderebbe il sistema più stabile e smorzerebbe l'intero sistema. Infine, Scholl osserva di aver calcolato tutte queste informazioni per comprendere le relazioni binarie tra le specie, risultando in qualcosa chiamato rete alimentare.

  • 00:50:00 Martin parla dello studio dell'ecologia del mercato utilizzando modelli basati su agenti. Scholl spiega come i nodi siano specie diverse e gli spigoli siano le interazioni tra di loro. Utilizzando il livello trofico, possono determinare quale specie ha il livello di profitto più basso, il che significa che non preda altre specie, e quale ha il livello di traffico più alto, il che significa che preda tutte le altre specie, rendendolo il predatore all'apice. Scholl spiega come i livelli di traffico cambiano drasticamente a seconda della densità e come ogni gruppo segue una cosa di sconto sui dividendi, con l'investitore di valore che depreda i trader rumorosi e il follower di tendenza che sfrutta le correlazioni.

  • 00:55:00 Martin Scholl spiega le implicazioni pratiche dello studio dell'ecologia del mercato utilizzando modelli basati su agenti. Un esperimento basato sulla qualità del mercato e sui prezzi errati mostra che un semplice modello lineare che utilizza l'abbondanza di specie funziona abbastanza bene per descrivere la relazione tra diversi tipi di predatori, influenzando i risultati del mercato. Il modello sviluppato consente di osservare come gli investimenti siano multidimensionali, evidenziando come le strategie abbiano impatti diversi sulla qualità del mercato. Secondo lo studio di Scholl, i mercati finanziari dipendono fortemente dalla densità, il che significa che gli investitori dovrebbero dimensionare adeguatamente la propria strategia per evitare di incorrere in perdite o diventare loro stessi prede. Questo approccio consente di descrivere i mercati come un sistema complesso influenzato da varie condizioni, contrariamente alla finanza tradizionale, in cui si ritiene che i prezzi delle azioni riflettano tutte le informazioni fondamentali disponibili.

  • 01:00:00 In questa sezione del video, Martin Scholl illustra l'uso di un semplice modello lineare per studiare l'ecologia del mercato utilizzando modelli basati su agenti. Osservando le partecipazioni e la relativa abbondanza delle attività di mercato, ha scoperto che questo approccio offriva una previsione migliore rispetto all'utilizzo di modelli derivati dai dipartimenti che presuppongono razionalità e traducono automaticamente i fondamentali. Discute anche i limiti del suo modello e la necessità di ulteriori ricerche per renderlo più realistico. Una domanda che affronta riguarda la sensibilità del modello a diverse ricette e definizioni, in particolare per quanto riguarda il trend following, che spiega è principalmente guidato dai dividendi nel suo modello, ma richiederebbe ulteriori passaggi per renderlo più realistico per il mondo finanziario reale. mercati.

  • 01:05:00 Martin Scholl discute il suo approccio allo studio dell'ecologia del mercato utilizzando modelli basati su agenti. Scholl non presume che gli agenti siano in grado di adattare le loro convinzioni al suo modello. Le operazioni di mercato in genere coinvolgono i gestori di fondi che seguono strategie delineate in un prospetto per decenni, indicando che il processo di asset allocation tende ad essere meccanico. Scholl tende a propendere per un comportamento meno adattivo e meno intelligenza nella sua modellazione. Tuttavia, altri membri del gruppo di ricerca dell'Università di Oxford lavorano sull'applicazione di algoritmi evolutivi per modificare i parametri delle strategie e persino innovarne di nuovi.
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
  • 2022.03.23
  • www.youtube.com
Abstract: This talk presents a mathematical analogy between financial trading strategies and biological species and shows how to apply standard concepts fro...
 

Kevin Webster: "In che modo l'impatto dei prezzi distorce il conto economico"



Kevin Webster: "In che modo l'impatto dei prezzi distorce il conto economico"

In un video di YouTube, Kevin Webster approfondisce l'argomento di come l'impatto dei prezzi può distorcere i rendiconti contabili di profitti e perdite (P&L). Sottolinea l'importanza di modellare accuratamente l'impatto dei prezzi per gestire efficacemente il rischio e sottolinea l'importanza di gestire il rischio di liquidità per evitare di rimanere con una posizione illiquida. Webster riconosce che sono disponibili vari modelli di impatto sui prezzi, ma generalmente concordano sulla maggior parte dei dati.

Il discorso inizia affrontando l'intersezione tra impatto dei prezzi e rischio di liquidità, osservando in particolare che la liquidità dei principali mercati era spesso data per scontata prima della crisi finanziaria. Webster condivide potenti citazioni che illustrano come l'impatto del prezzo crei un'illusione di profitto, portando a dislocazioni di prezzo lontano dai valori finanziari. L'obiettivo del discorso è formalizzare matematicamente questo concetto, fornendo un quadro quantitativo basato sulla stima dell'impatto sul mercato della liquidazione per eliminare l'illusione del profitto.

Webster spiega l'impatto del prezzo come un modello causale per il trading, dove il trading più aggressivo spinge ulteriormente i prezzi e viceversa. I modelli di impatto sui prezzi sono ampiamente utilizzati nell'analisi dei costi di transazione e nell'esecuzione ottimale, fungendo da strumenti pre-negoziazione per stimare i costi di transazione previsti e ottimizzare le strategie di esecuzione. Presenta un finto rapporto di analisi dei costi di transazione che consente ai trader di valutare le prestazioni dei loro algoritmi su base trimestrale, con particolare attenzione alla riduzione al minimo dello slittamento degli ordini e alla considerazione sia delle mosse meccaniche che dello slittamento alfa.

Il relatore discute le linee guida pubblicate dall'Autorità europea degli strumenti finanziari e dei mercati (ESMA) in merito agli stress test di liquidità, che prevedono la simulazione della liquidazione degli asset durante i periodi di stress del mercato. La simulazione delle reazioni del mercato, come le dislocazioni dei prezzi, e l'impiego di strategie di copertura sono fondamentali per ridurre l'esposizione al rischio. Webster fa riferimento a varie pubblicazioni sugli stress test di liquidità e sull'impatto dei prezzi sul P&L contabile, inclusi i lavori di Cascioli, Boucheron, Farmer e comitati di regolamentazione come l'ESMA e il Baffled Committee. Sottolinea la necessità di stress test di liquidità per mitigare situazioni che potrebbero incidere sul conto economico e comportare elevati costi di liquidazione.

Viene introdotto il concetto di impronta di trading, che misura l'effetto distorsivo dell'impatto del prezzo sul P&L contabile e riunisce diverse definizioni di P&L. Webster presenta un semplice modello di svendita per illustrare le significative conclusioni sul conto economico tratte dal documento Casadio-Bouchard-Farmer. Spiega come il numero che i trader e i gestori di piattaforma osservano quotidianamente sovrastima il loro P&L finale, portando alla deflazione quando il commercio è completato. Tuttavia, questa proprietà dell'inflazione può essere misurata e visualizzata in tempo reale, fornendo informazioni utilizzabili per i trader. Webster osserva che le perdite di inflazione di posizione sono spesso temporanee e dipendono dalla tolleranza al rischio.

Vengono discusse le questioni relative alla valutazione di una posizione azionaria e il suo impatto sul P&L di una società. Webster evidenzia l'ambiguità nel determinare quali prezzi utilizzare per contrassegnare la posizione azionaria e la differenza tra il P&L contabile e il P&L fondamentale utilizzato dagli algoritmi di trading. L'impronta di trading è definita come la differenza tra P&L contabile e P&L fondamentale, con l'ambiguità risolta quando la posizione viene chiusa. L'oratore esplora l'inflazione della posizione, formulando alcune ipotesi in base alle quali questa proprietà è valida. Si accenna anche al modello di impatto e ai suoi due casi, la talpa OW originale e la talpa W studiata da Fruehwirth e Bond.

Webster spiega che affinché il modello abbia senso, deve essere soddisfatta una condizione di non arbitraggio tra lambda e beta, insieme a una condizione di equazione di autofinanziamento. Approfondisce il calcolo del P&L previsto al momento della chiusura e il modo in cui l'impronta di trading introduce pregiudizi nel P&L contabile. La proprietà di inflazione della posizione fa sì che la posizione si gonfi durante la fase di ingresso della posizione, rimanga durante la fase di mantenimento e alla fine evapori. Tutti questi aspetti possono essere osservati in tempo reale su una schermata di trading, fornendo ai trader preziose informazioni.

Webster spiega ulteriormente le distorsioni nel P&L contabile causate dall'impatto sui prezzi. Discute di come i trader possono effettuare operazioni redditizie anche senza alfa, ma avverte che questi profitti sono di breve durata a causa dei costi di transazione. Il monitoraggio tempestivo delle dislocazioni dei prezzi è fondamentale per evitare perdite. Inoltre, Webster osserva che i gestori di portafoglio preferiscono visualizzare i propri portafogli nel loro insieme e introduce il concetto di portafoglio stazionario, che controlla le dimensioni e il turnover di un portafoglio nel mondo della finanza matematica.

Il concetto di portafoglio stazionario viene quindi esplorato in relazione alla stima dei costi di transazione correnti. Comprendendo la scala temporale del propagatore, i trader possono stimare la misura in cui le loro posizioni sono gonfiate e l'illusione del profitto che potrebbero perdere liquidando le loro posizioni. Webster dimostra il framework utilizzando dati empirici, mostrandone l'applicabilità a scenari del mondo reale. Applica il framework a un modello di svendita e spiega le differenze tra P&L contabile e P&L fondamentale, evidenziando come informano diverse funzioni obiettivo basate sull'avversione al rischio di un trader.

L'oratore approfondisce l'impatto delle vendite forzate o dell'attività di trading di altri partecipanti al mercato sul P&L e sulla posizione di un trader. Una copertura aggressiva può portare a effetti di affollamento e inflazione di posizione, con conseguenti perdite permanenti. La modellazione accurata dell'impatto sui prezzi è fondamentale per un'efficace gestione del rischio e la gestione del rischio di liquidità è enfatizzata per evitare di ritrovarsi con posizioni illiquide.

Webster riconosce che sebbene siano disponibili molti diversi modelli di impatto sui prezzi, generalmente concordano sulla maggior parte dei dati. Tuttavia, possono sorgere differenze nell'entità e nella durata della persistenza dell'impatto. Le lussazioni temporanee possono durare da un paio di giorni a un mese. Dal punto di vista della gestione del rischio, esiste una chiara linea d'azione, mentre dal punto di vista del trader e della performance, una comunicazione efficace diventa fondamentale. Capire se P&L è meccanico o meno e rimuovere la parte meccanica consente ai trader di concentrarsi sull'alfa o sul vantaggio effettivo nelle loro operazioni.

Il relatore spiega il principio "nessuna manipolazione dei prezzi", sottolineando che anche se i trader ottengono profitti, non possono mantenerli poiché alla fine evaporeranno. L'inflazione di posizione porta alla deflazione del valore commerciale nel tempo o alla liquidazione immediata, con conseguenti profitti e perdite pari a zero o addirittura negativi. Pertanto, i trader devono fare affidamento su altre variabili per generare profitti sostenibili. Webster esplora ulteriormente la correlazione tra lo stato di impatto iniziale, l'impatto causato dal resto del mercato e l'impatto delle coperture del trader e del resto del mercato.

In conclusione, Kevin Webster fornisce una comprensione completa di come l'impatto dei prezzi può distorcere il conto economico. Fa luce sui costi aggiuntivi durante i regimi di liquidità ad alta volatilità e sulla loro correlazione con il mercato più ampio, sottolineando il loro impatto sul bias. Dal punto di vista normativo, è probabile che le obbligazioni societarie e le compagnie assicurative risentano maggiormente di questo pregiudizio. Sebbene Webster ammetta di non avere risposte dettagliate per i mercati al di fuori delle azioni, fornisce una solida base matematica per comprendere l'impatto dei prezzi e la sua potenziale distorsione del P&L.

  • 00:00:00 è la base di questo discorso su come l'impatto dei prezzi distorce il conto economico. Il discorso è motivato dall'intersezione tra impatto del prezzo e rischio di liquidità, e dal fatto che la liquidità dei principali mercati era spesso data per scontata prima della crisi finanziaria. L'oratore fornisce due potenti citazioni che illustrano l'illusione del profitto causata dall'impatto dei prezzi e come porta a dislocazioni dei prezzi lontano dai valori finanziari. Il discorso mira a formalizzare matematicamente questa idea e fornire un quadro quantitativo basato sull'impatto stimato sul mercato della liquidazione per rimuovere questa illusione di profitto.

  • 00:05:00 L'oratore discute l'impatto del prezzo come modello causale per il trading e come fa aumentare ulteriormente il prezzo se scambiato in modo più aggressivo e viceversa. Il settore utilizza modelli di impatto sui prezzi per l'analisi dei costi di transazione e l'esecuzione ottimale, e i professionisti lo utilizzano come strumento pre-negoziazione per stimare il costo di transazione previsto di un ordine e per ottimizzare la strategia di esecuzione. L'oratore fornisce un finto rapporto TCA per emulare questa prospettiva di liquidità per consentire ai trader di valutare come stanno andando i loro algoritmi su base trimestrale. I trader cercano di ridurre al minimo lo slittamento degli ordini e l'impatto del prezzo e lo slittamento dell'alfa entrano in gioco a seconda della percentuale di slittamento degli ordini causata da movimenti meccanici o alfa.

  • 00:10:00 Kevin Webster discute le linee guida pubblicate dall'Autorità europea degli strumenti finanziari e dei mercati su come eseguire gli stress test di liquidità, che prevedono la simulazione della liquidazione degli asset durante i periodi di stress del mercato. Spiega inoltre l'importanza di simulare le reazioni del mercato, come le dislocazioni dei prezzi, e come la copertura può ridurre l'esposizione al rischio. Inoltre, esamina due filoni di letteratura sugli stress test di liquidità e l'impatto dei prezzi sul P&L contabile, compresi i lavori di Cascioli Boucheron Farmer e regolatori come il Baffled Committee e l'ESMA. Infine, sottolinea la necessità di test di stress sulla liquidità per evitare situazioni che potrebbero incidere sul conto economico e comportare elevati costi di liquidazione.

  • 00:15:00 Il relatore discute i punti salienti di vari documenti sugli stress test di liquidità, inclusa la necessità per i responsabili delle decisioni di utilizzarli e la loro struttura basata sulla simulazione. Raccomandano un articolo specifico di Francelli sulla simulazione delle dislocazioni dei prezzi durante lo stress del mercato, insieme a un paio di articoli di Schweizer e Urzua che forniscono una prova alternativa per il modello OB e ne aumentano notevolmente l'applicabilità. Il relatore introduce anche il concetto di impronta commerciale che lega insieme diverse definizioni di P&L e misura l'effetto distorsivo dell'impatto del prezzo sul P&L contabile. Infine, hanno creato un semplice modello di svendita per illustrare le potenti conclusioni sui profitti e perdite contabili tratte dal documento Casadio-Bouchard-Farmer.

  • 00:20:00 Kevin Webster discute di come l'impatto dei prezzi può distorcere il conto economico. Spiega come il numero che i trader e i gestori di piattaforma guardano su base giornaliera sovrastima il loro P&L finale, facendolo sgonfiare quando finiscono il commercio. Tuttavia, la proprietà dell'inflazione può essere misurata e visualizzata in tempo reale, rendendola utilizzabile per i trader. Webster osserva che la parte relativa all'inflazione della posizione delle perdite è spesso temporanea e dipende dalla tolleranza al rischio. Conclude con un'introduzione alla configurazione matematica, alle variabili e alle quantità che i trader devono considerare quando calcolano profitti e perdite.

  • 00:25:00 In questa sezione, Kevin Webster spiega le questioni relative alla valutazione di una posizione azionaria e come influisce sul profitto e sulla perdita (P&L) di un'azienda. Parla dell'ambiguità nel determinare quali prezzi utilizzare per contrassegnare la posizione azionaria e della differenza tra il P&L contabile e il P&L fondamentale utilizzato dall'algoritmo di trading. Definisce l'impronta di trading come la differenza tra il P&L contabile e il P&L fondamentale e spiega come l'ambiguità viene eliminata quando la posizione viene chiusa. Discute anche dell'inflazione della posizione e fornisce alcuni presupposti in base ai quali questa proprietà è valida. Infine, menziona il modello di impatto e i suoi due casi, la talpa OW originale e la talpa W che Fruehwirth e Bond hanno studiato.

  • 00:30:00 Kevin Webster spiega che affinché il modello abbia senso, deve esserci una condizione di non arbitraggio tra lambda e beta, nonché una condizione di equazione di autofinanziamento che deve essere soddisfatta. Spiega anche come calcolare il P&L previsto al momento della chiusura e come l'impronta di trading introduce pregiudizi nel P&L contabile. Infine, discute di come la proprietà di inflazione della posizione faccia gonfiare la posizione durante la fase di ingresso della posizione, rimanga durante la fase di mantenimento e alla fine evapori. Tutto questo può essere osservato in tempo reale e su una schermata di trading.

  • 00:35:00 In questa sezione, Kevin Webster, un esperto di finanza, spiega le distorsioni dell'impatto sui prezzi che si verificano nel P&L contabile. Discute di come i trader possono effettuare operazioni redditizie anche quando il loro commercio non ha alfa, avvertendo anche che questi profitti non dureranno a lungo a causa dei costi di transazione e che i trader dovrebbero monitorare queste posizioni dei prezzi in anticipo per evitare perdite. Inoltre, spiega che i gestori di portafoglio preferiscono pensare al proprio portafoglio nel suo insieme e definisce un portafoglio stazionario per controllare le dimensioni e il turnover di un portafoglio nel mondo della finanza matematica.

  • 00:40:00 Kevin Webster discute il concetto di portafoglio stazionario e come può essere utilizzato per stimare i costi di transazione correnti. Conoscendo la scala temporale del propagatore, i trader possono stimare quanto la loro posizione è gonfiata e l'illusione del profitto che potrebbero perdere se iniziano a liquidare la loro posizione. Webster quindi simula il framework su dati empirici e sottolinea che queste formule possono essere applicate a scenari del mondo reale. Infine, applica il quadro a un modello di svendita e spiega le differenze tra P&L contabile e P&L fondamentale e come possono informare diverse funzioni oggettive a seconda dell'avversione al rischio di un trader.

  • 00:45:00 Kevin spiega come le vendite forzate, o l'attività di trading di altri partecipanti al mercato, possono influenzare il P&L e la posizione di un trader. Dimostra che una copertura aggressiva può portare a effetti di affollamento e inflazione di posizione, che può portare a perdite permanenti. Inoltre, sottolinea l'importanza di modellare accuratamente l'impatto del prezzo per gestire il rischio in modo efficace e sottolinea l'importanza di gestire il rischio di liquidità prima di ritrovarsi con una posizione illiquida. Infine, osserva che sebbene esistano molti diversi modelli di impatto sui prezzi, in genere concordano sulla maggior parte dei dati.

  • 00:50:00 Il relatore discute di come i diversi modelli di impatto possono opporsi non solo all'importo o alla variazione dell'impatto sui prezzi, ma anche alla durata della scomparsa dell'impatto. Forniscono un esempio di dislocazione temporanea che potrebbe durare da un paio di giorni a un mese. Tuttavia, se i trader o i gestori delle prestazioni desiderano sbilanciare le proprie posizioni o eseguire la gestione del rischio, qualsiasi modello di impatto dovrebbe essere sufficiente e esiste un set utilizzabile per comunicare in modo efficace con le parti interessate. Dal punto di vista della gestione del rischio, esiste un chiaro set di azioni. Al contrario, dal punto di vista del trader e della performance, è principalmente una questione di comunicazione, comprendendo se p/l è meccanico o meno, rimuovendo la parte meccanica del p/l, ci si può concentrare sull'effettivo alfa o sull'effettivo vantaggio nel commercio .

  • 00:55:00 Kevin Webster spiega che il principio di non manipolazione dei prezzi significa che anche se i trader ottengono profitti, non possono bloccarli poiché alla fine evaporeranno. L'inflazione della posizione di prova si traduce nella deflazione del valore commerciale nel tempo o nella liquidazione immediata, che porta a profitti e perdite pari a zero o addirittura negativi. I trader devono fare affidamento su altre variabili per realizzare profitti poiché l'inflazione di posizione non consente ai profitti di diventare permanenti. Webster discute ulteriormente la correlazione tra lo stato di impatto iniziale, l'impatto iniziale causato dal resto del mercato e l'impatto delle coperture del trader e del resto del mercato.

  • 01:00:00 Kevin Webster discute di come l'impatto sui prezzi distorca la contabilità P&L. Spiega che i costi aggiuntivi durante i regimi di liquidità ad alta volatilità e la correlazione con il resto del mercato possono contribuire in misura considerevole alla distorsione. Dal punto di vista della regolamentazione, le obbligazioni societarie e le compagnie assicurative sarebbero probabilmente più colpite da questo pregiudizio. Tuttavia, come ammette, non ha una risposta molto dettagliata in quanto non è sicuro di come rispondere a determinate domande al di fuori delle azioni. Nel complesso, fornisce una comprensione matematica dell'impatto del prezzo e di come può distorcere P&L.
Kevin Webster: "How Price Impact Distorts Accounting P&L"
Kevin Webster: "How Price Impact Distorts Accounting P&L"
  • 2022.02.16
  • www.youtube.com
Full Talk Title: "How Price Impact Distorts Accounting P&L - Revisiting Caccioli, Bouchaud and Farmer's Impact-Adjusted Valuation"This presentation revisits ...
 

Laura Leal (Princeton University) - "Imparare un controllo funzionale per la finanza ad alta frequenza"



Laura Leal (Princeton University) - "Imparare un controllo funzionale per la finanza ad alta frequenza"

Laura Leal, ricercatrice della Princeton University, ha tenuto una presentazione informativa sull'applicazione delle reti neurali profonde nella finanza ad alta frequenza. Ha sottolineato i limiti delle soluzioni convenzionali ed esplorato i vantaggi dell'utilizzo delle reti neurali in questo dominio. Leal ha evidenziato la loro capacità di adattarsi a fattori complessi come l'autocorrelazione e la stagionalità intraday, con cui i modelli tradizionali hanno difficoltà. Sfruttando le reti neurali, i trader possono ottenere un'esecuzione ottimale riducendo al minimo l'impatto sul mercato e negoziando senza intoppi.

Per affrontare le preoccupazioni sulla natura della scatola nera delle reti neurali, Leal ha introdotto il concetto di spiegabilità. Ha discusso la proiezione del controllo della rete neurale su una varietà di dimensioni inferiori, consentendo una migliore comprensione dei rischi associati e della deviazione dai settori di rischio familiari. Il team ha valutato le prestazioni del controllo della rete neurale, confrontandolo con la classica soluzione PDE (equazione differenziale parziale) in forma chiusa. Hanno esaminato la funzione del valore, la ricchezza mark-to-market e i relativi errori nelle proiezioni per valutare l'accuratezza e l'efficacia dell'approccio della rete neurale.

Leal ha approfondito le complessità dell'addestramento della rete neurale, sottolineando l'importanza di incorporare dati del mondo reale e dinamiche accurate. Ha inoltre proposto un controller multi-preferenza che consente ai trader di inserire le proprie preferenze di rischio, consentendo un adattamento più rapido alle nuove condizioni di mercato. Considerando i parametri di avversione al rischio e incorporando le preferenze di un trader, la rete neurale può generare una soluzione al problema dell'ottimizzazione stocastica nella finanza ad alta frequenza.

Il relatore ha discusso la struttura della rete neurale utilizzata per il controllo del rischio, evidenziandone la natura ricorrente. Sebbene la rete non sia eccessivamente profonda, utilizza una struttura ricorrente in ogni fase temporale, aggiornando simultaneamente i pesi. Gli input alla rete includono il tempo e l'inventario, mentre l'output è il controllo stesso, determinando la quantità ottimale di scorte da scambiare in ogni fase temporale. Per affrontare la sfida della limitata disponibilità di dati finanziari, viene utilizzato il transfer learning, simulando i dati utilizzando metodi Monte Carlo.

Leal ha delineato il processo di proiezione del controllo della rete neurale su uno spazio di funzioni lineare utilizzando la regressione lineare. Questa tecnica di proiezione facilita una migliore comprensione delle funzioni non lineari della rete neurale e il loro allineamento con soluzioni di controllo in forma chiusa. I risultati hanno dimostrato l'impatto dell'incorporazione dei parametri di stagionalità e avversione al rischio sulla reazione del modello al mercato. Inoltre, il relatore ha sottolineato il significato di gamma, che in letteratura è tipicamente impostato su due, ma ha mostrato una soluzione non lineare se preso come tre su due.

Le prestazioni e l'accuratezza del controllo della rete neurale nell'esecuzione di operazioni per la finanza ad alta frequenza sono state valutate a fondo. Leal ha confrontato la funzione del valore, la ricchezza mark-to-market e gli errori relativi nelle proiezioni in diversi scenari e valori gamma. Sebbene la rete neurale abbia mostrato prestazioni superiori, ha eseguito operazioni in modo non lineare, deviando dalla soluzione di controllo nota. Ciò ha sollevato interrogativi sulla decisione di negoziare utilizzando la rete neurale e determinando livelli di margine appropriati in base alla sua divergenza dalla soluzione stabilita.

Leal ha esplorato i vantaggi dell'approccio del controller multi-preferenza, consentendo ai trader di inserire i propri parametri di conversione del rischio e iniziare a fare trading immediatamente con un modello pre-addestrato. Sebbene la soluzione di rete neurale richiedesse più tempo per l'esecuzione rispetto alla soluzione PDE, offriva maggiore flessibilità e adattabilità alle diverse preferenze di rischio. Per migliorare la spiegabilità, Leal ha proposto un'idea di proiezione utilizzando la regressione lineare, riducendo il carico computazionale pur mantenendo la capacità di multi-preferenza. Ha anche evidenziato le applicazioni più ampie del concetto di approssimazione della rete neurale, suggerendo la sua rilevanza in altri problemi finanziari, come la copertura.

È stato discusso il processo di formazione per la rete neurale nella finanza ad alta frequenza, sottolineando la formazione offline per evitare problemi di latenza associati all'apprendimento per rinforzo online. La rete prende il tempo, l'inventario e potenzialmente i parametri di avversione al rischio come input e produce un tasso come output. Leal ha anche descritto la procedura di messa a punto nel trasferimento dell'apprendimento, passando da dati simulati a incrementi di dati reali ottenuti dalla Borsa di Toronto una volta che la rete è convergente. Il relatore ha sottolineato l'importanza di utilizzare dati del mondo reale e dinamiche accurate durante il processo di formazione, in quanto migliora la capacità della rete di catturare le complessità della finanza ad alta frequenza.

Nella sezione successiva, Laura Leal ha fornito approfondimenti sugli input e sulla funzione obiettivo impiegati nella rete neurale per la finanza ad alta frequenza. La rete neurale incorpora l'inventario come proporzione del volume medio per uno stock specifico durante un giorno, consentendo una rappresentazione normalizzata. La funzione obiettivo è inquadrata come un problema di massimizzazione, con l'output che funge da controllo per l'esecuzione ottimale. La struttura della rete neurale si basa sull'approssimazione delle funzioni, utilizzando due nodi di input e quattro livelli nascosti per acquisire le relazioni sottostanti.

Affrontando una domanda sulla discrepanza tra due soluzioni di controllo, Leal ha chiarito che potrebbe essere interpretata come un riflesso della mutevole utilità dell'investitore. Regolando il parametro gamma, è possibile utilizzare diverse funzioni di utilità, portando a variazioni nelle soluzioni di controllo. Nella loro ricerca, il team ha scelto il valore gamma di tre metà sulla base di test empirici con operatori reali, che hanno portato a prestazioni soddisfacenti.

Leal ha inoltre sottolineato che l'output della rete neurale è osservabile e analizzabile. Possono monitorare le posizioni assunte dalla rete e il modo in cui si evolvono durante la giornata di negoziazione, fornendo trasparenza e approfondimenti sul processo decisionale. Questo livello di interpretabilità e comprensione consente ai trader di acquisire fiducia nelle strategie di esecuzione della rete neurale.

Leal ha discusso anche delle sfide associate allo sviluppo di controlli funzionali per la finanza ad alta frequenza. Sebbene un processo di controllo medio possa fornire informazioni generali sull'esecuzione degli scambi, potrebbe non rappresentare accuratamente il comportamento delle singole traiettorie. Le dinamiche del mercato, come l'emergere di stock di meme, richiedono l'adattamento dei metodi di controllo per catturare efficacemente le condizioni in evoluzione.

In conclusione, la presentazione di Laura Leal ha fatto luce sulla complessità della creazione di controlli efficaci nell'ambito della finanza ad alta frequenza. Sfruttando le reti neurali profonde, ricercatori e commercianti possono superare i limiti dei modelli tradizionali e adattarsi alle dinamiche complesse di questo dominio. L'incorporazione di preferenze di rischio, misure di spiegabilità e dati del mondo reale contribuisce allo sviluppo di soluzioni di controllo robuste e adattabili. Attraverso il loro lavoro, Leal e il suo team offrono preziose informazioni e soluzioni che aprono la strada a un processo decisionale più efficiente e informato nella finanza ad alta frequenza.

  • 00:00:00 Laura Leal presenta il suo lavoro congiunto con Matthias e Charlotte sull'utilizzo di una rete neurale profonda per risolvere il problema dell'esecuzione ottimale nella finanza ad alta frequenza. L'obiettivo è evitare un grande impatto sul mercato e fare trading nel modo più fluido e furtivo possibile. Il team introduce l'idea della spiegabilità per affrontare la preoccupazione che le reti neurali siano una scatola nera, in cui proiettano il controllo della rete neurale su una varietà di dimensioni inferiori per comprendere meglio il rischio e quanto è lontana la soluzione della rete neurale dal rischio familiare settore. Valutano le prestazioni, osservando la funzione del valore, il mercato segnato dalla ricchezza e i relativi errori nelle proiezioni e confrontano la soluzione della rete neurale con la classica soluzione PDE in forma chiusa.

  • 00:05:00 Laura Leal della Princeton University discute di come le reti neurali possono migliorare i limiti delle soluzioni tradizionali, come i modelli PD (differenziale parziale), che faticano ad adattarsi alle complessità della finanza ad alta frequenza come l'autocorrelazione, le code pesanti e stagionalità infragiornaliera. Tuttavia, l'esecuzione delle reti neurali può richiedere molto tempo, quindi propone un controller multi-preferenza che inserisce le preferenze di rischio di un trader per adattarsi più rapidamente ai nuovi giorni, generando una soluzione al problema dell'ottimizzazione stocastica. Leal fornisce quindi una panoramica della letteratura, inclusi i modelli di esecuzione ottimale, e spiega le variabili di stato come l'inventario, il controllo e il prezzo da cui la rete neurale può apprendere nella finanza ad alta frequenza.

  • 00:10:00 Laura discute l'evoluzione del processo dei prezzi nella finanza ad alta frequenza e come è influenzato dalla velocità del trading. Spiega come più velocemente fai trading, più liquidità consumi, il che spinge il prezzo verso l'alto e genera un impatto permanente sul mercato. Il criterio oggettivo da minimizzare dipende dal controllo, che è la velocità di negoziazione, e ha una componente terminale e una componente di costo corrente. Il costo terminale è suddiviso in tre parti, che includono la ricchezza finale in contanti, la penalità per la detenzione di inventario e quanto può essere venduto l'inventario finale. Il costo di gestione è una penalità per la conservazione dell'inventario per tutto il giorno e questi due parametri sono essenziali per la gestione del rischio. Leal discute anche di come la gamma sia significativa per la loro soluzione di rete neurale e di solito è considerata uguale a due in letteratura.

  • 00:15:00 Laura Leal, relatrice della Princeton University, spiega l'uso di una rete neurale per apprendere l'approssimazione in un problema finanziario ad alta frequenza in cui la funzione valore ha un termine quadratico sull'inventario. La soluzione equivalente quando si utilizza una metrica neurale è diversa dall'ottimizzazione del controllo mu in quanto è necessario scegliere i parametri della rete neurale. La rete neurale viene utilizzata per tutte le fasi temporali, consentendole di apprendere come reagire in base al prezzo, all'inventario e alla ricchezza dell'agente. Il processo utilizza una struttura di rete neurale feed-forward completamente connessa con input di tempo e inventario. Tuttavia, gli input possono essere generalizzati in molti modi per includere più input rispetto ai parametri di preferenza di rischio utilizzati nel video a scopo illustrativo.

  • 00:20:00 Laura Leal spiega la struttura della rete neurale utilizzata per il controllo del rischio nella finanza ad alta frequenza. La rete non è molto profonda, ma è ricorrente, riutilizzando la stessa struttura ad ogni passo temporale per aggiornare simultaneamente i pesi. L'input alla rete è il tempo e l'inventario, e l'output è il controllo, che è la stessa rete neurale, che emette per ogni passaggio temporale una certa quantità di azioni da scambiare. L'apprendimento del trasferimento viene utilizzato per simulare i dati utilizzando Monte Carlo invece di utilizzare dati finanziari costosi o scarsi. I dati utilizzati provengono dalla Borsa di Toronto da gennaio 2008 a dicembre 2009 e la rete neurale viene utilizzata per affrontare problemi di code pesanti, autocorrelazione e stagionalità infragiornaliera.

  • 00:25:00 In questa sezione, Laura Leal spiega il processo di proiezione del controllo ottenuto dalla rete neurale sullo spazio delle funzioni lineari di q utilizzando la regressione lineare per trovare i termini beta1 e beta2 per determinare la r al quadrato, mostrando quanto di le funzioni non lineari della rete neurale possono essere proiettate nello spazio dei controlli in forma chiusa. I risultati hanno mostrato che quando si aggiungevano funzionalità al codice, come la stagionalità e l'apprendimento dei parametri di avversione al rischio dell'agente, c'era un impatto significativo sulla reazione del modello al mercato, ma quando si considerava gamma uguale a 3 su 2, c'era un non soluzione lineare per la rete neurale.

  • 00:30:00 Laura esamina le prestazioni e l'accuratezza del controllo della rete neurale nell'esecuzione di operazioni per la finanza ad alta frequenza. Confronta la funzione del valore e il mark to market wealth per diversi scenari e valori gamma. Valuta anche l'errore relativo nella proiezione e osserva che mentre la rete neurale ha prestazioni migliori, si sta eseguendo in modo non lineare diverso dal controllo noto. Ciò solleva interrogativi sull'opportunità o meno di fare trading utilizzando la rete neurale e quanto margine impostare in base alla sua distanza dalla comoda soluzione nota.

  • 00:35:00 In questa sezione, Laura discute le sue scoperte sul controller multi-preferenza per l'esecuzione ottimale nella finanza ad alta frequenza. Leal ha scoperto che la soluzione della rete neurale richiede più tempo per essere eseguita rispetto alla soluzione PDE per tutti i set di parametri perché la prima reagisce alla stagionalità. Tuttavia, con questo approccio, i trader possono inserire i loro attuali parametri di conversione del rischio e iniziare a fare trading immediatamente con qualcosa che è già stato addestrato. Leal propone anche la spiegabilità attraverso un'idea di proiezione che utilizza una regressione lineare e una versione multi-preferenza dello stesso problema per rimuovere parte del carico computazionale. Inoltre, Leal discute altri documenti nella sua tesi e come questa idea di approssimazione della rete neurale possa essere applicata a molti altri problemi finanziari, inclusa la copertura.

  • 00:40:00 Laura Leal discute il processo di formazione per la rete neurale utilizzata nella finanza ad alta frequenza. Spiega che la rete viene addestrata offline, piuttosto che attraverso l'apprendimento per rinforzo online, al fine di evitare problemi di latenza. Una volta che la rete è stata addestrata, richiede tempo e input di inventario, potenzialmente con parametri di avversione al rischio, e produce un tasso. L'utente finale non ha bisogno di comprendere il funzionamento interno della rete. Leal spiega anche la procedura di messa a punto utilizzata nel trasferimento dell'apprendimento, che prevede il passaggio a incrementi di dati reali dalla Borsa di Toronto dopo che la rete è convergente. Infine, affronta le domande sulla pre-elaborazione e l'ottimizzazione, sottolineando l'importanza di utilizzare dati del mondo reale e dinamiche accurate nel processo di formazione.

  • 00:45:00 In questa sezione del video, Laura Leal discute gli input e la funzione obiettivo utilizzati nella rete neurale per la finanza ad alta frequenza. La rete neurale considera l'inventario come una proporzione del volume medio per tale stock durante un giorno, che viene considerato come un valore compreso tra meno uno e uno. La funzione obiettivo è un problema di massimizzazione con l'output che è un controllo e la struttura della rete neurale si basa sull'approssimazione della funzione. Leal spiega anche che ci sono due nodi di input e quattro strati nascosti nella struttura della rete neurale. Infine pone una questione sulla differenza tra due soluzioni di controllo e chiarisce che essa potrebbe essere interpretata come conseguenza del mutamento dell'utilità dell'investitore.

  • 00:50:00 Laura discute le differenze tra i modelli gamma 2 e tre metà e le loro funzioni di utilità. Spiega che con la gamma 2 la soluzione non è più una soluzione in forma chiusa e invece viene prodotta una soluzione approssimata tramite una rete neurale. Il motivo per cui è stata scelta la gamma tre metà era dovuto al fatto di testarlo con veri trader all'interno di un'azienda e ha portato a buone prestazioni. Inoltre, Leal conferma che l'output della rete neurale può essere osservato e analizzato e sanno quali posizioni assume e come cambiano durante il giorno.

  • 00:55:00 In questa sezione, Laura Leal discute le sfide legate alla realizzazione di un controllo funzionale per la finanza ad alta frequenza. Sebbene un processo di controllo medio possa fornire informazioni su come apparirà l'esecuzione di un'operazione, potrebbe non essere del tutto accurato quando si osserva una singola traiettoria. Risponde anche a una domanda sull'uso di un metodo a due blocchi per l'ottimizzazione e spiega come il metodo dovrebbe adattarsi alle mutevoli dinamiche, ad esempio con gli stock di meme. Nel complesso, la presentazione di Leal fa luce sulla complessità della creazione di controlli funzionali per la finanza ad alta frequenza.
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
  • 2021.11.17
  • www.youtube.com
Laura Leal (Princeton University) is our last speaker for the Fall 2021 seminar series. Her topic is called "Learning a Functional Control for High-Frequency...
 

Zihao Zhang (Oxford-Man Institute) - "Deep Learning per il mercato in base ai dati sugli ordini"



Zihao Zhang (Oxford-Man Institute) - "Deep Learning per il mercato in base ai dati sugli ordini"

Zihao Zhang, ricercatore post-dottorato presso l'Oxford-Man Institute e parte del gruppo di ricerca sull'apprendimento automatico, presenta il recente lavoro del suo team sull'applicazione del deep learning ai dati di mercato in base agli ordini. Il loro focus è sui dati della microstruttura del mercato, in particolare il portafoglio ordini limite, che fornisce preziose informazioni sulla dinamica complessiva della domanda e dell'offerta per uno specifico strumento finanziario. Combinando i dati market by order e limit order book, Zhang e il suo team hanno scoperto di poter ridurre la varianza del segnale e ottenere segnali predittivi migliori. Questa applicazione del loro modello ha il potenziale per migliorare l'esecuzione degli scambi e le strategie di market-making.

Zhang inizia la sua presentazione fornendo una breve introduzione ai dati sulla microstruttura del mercato, sottolineando in particolare l'importanza dei dati market by order. Questa fonte di dati offre informazioni altamente granulari, fornendo frequenti aggiornamenti ed eventi rispetto ai dati del portafoglio ordini limite, che ha ricevuto maggiore attenzione nella letteratura esistente. Introduce il loro modello di deep learning, spiegando le architetture di rete che hanno progettato per analizzare i dati market by order. Zhang sottolinea che il loro lavoro rappresenta il primo modello predittivo che utilizza i dati market by order per prevedere i movimenti ad alta frequenza, offrendo una fonte alternativa di informazioni che amplia le possibilità di scoperta dell'alfa.

Successivamente, Zhang approfondisce il concetto di registro degli ordini limite, che funge da registro completo di tutti gli ordini limite in sospeso per uno strumento finanziario in un determinato momento. Sottolinea che mentre i dati del grafico offrono informazioni a bassa frequenza, il prezzo di un'azione è in realtà rappresentato dal registro degli ordini limite, che è una serie temporale multivariata. Zhang spiega come il registro degli ordini limite è organizzato in diversi livelli di prezzo in base agli ordini inviati, con ogni livello di prezzo costituito da numerosi piccoli ordini segmentati da diversi trader. Discute anche di come il libro ordini viene aggiornato quando arrivano nuovi messaggi, che possono introdurre nuove posizioni, cancellare ordini esistenti o modificare ordini correnti. Zhang sottolinea che i dati derivati dal portafoglio ordini limite rivelano la relazione complessiva tra domanda e offerta per uno specifico strumento finanziario e il suo obiettivo è determinare se l'utilizzo dei dati market by order, contenenti informazioni sull'inserimento e sull'annullamento degli ordini, può fornire ulteriori approfondimenti per fare previsioni.

Andando avanti, Zhang esplora come i dati di mercato per ordine possono essere utilizzati nel deep learning per prevedere i movimenti del mercato. Sebbene le stringhe di messaggio nei dati dell'ordine di mercato possiedano dimensioni inferiori rispetto al registro degli ordini limite, offrono informazioni aggiuntive che possono essere sfruttate per le previsioni. Zhang spiega come gli eventi passati possono essere trasformati in matrici 2D, formando immagini che possono essere inserite in una rete neurale per la previsione. Le caratteristiche risultanti dallo strato convoluzionale possono quindi essere integrate negli strati neurali ricorrenti per apprendere la struttura e acquisire ulteriori dipendenze. Il livello finale produce previsioni basate su un'impostazione di classificazione utilizzando i ritorni di soglia.

Zhang procede a discutere l'architettura di rete utilizzata per fare previsioni utilizzando i dati del portafoglio ordini limite. In questo caso, i primi due componenti vengono sostituiti con i messaggi dei singoli trader e i livelli convoluzionali vengono sostituiti con un livello LSTM o livello di attenzione. Zhang spiega brevemente il meccanismo di attenzione, che facilita la previsione a punto singolo e coinvolge una struttura codificatore-decodificatore. Il codificatore estrae caratteristiche significative dai tempi di input e le riassume in uno stato nascosto, mentre il decodificatore genera la previsione. La normalizzazione viene utilizzata per determinare se un ordine è un acquisto o una vendita in base al prezzo medio.

Nella sezione successiva, Zhang presenta i risultati del loro modello addestrato con un gruppo di risorse, normalizzato su una scala simile e testato utilizzando diversi modelli come il modello lineare semplice, il percettrone multistrato, LSTM e il modello di attenzione, incorporando sia l'ordine limite dati contabili e dati ambientali puri. I risultati indicano che i segnali predittivi dei dati ambientali mostrano una minore correlazione con i segnali del portafoglio ordini limite, suggerendo che una combinazione di queste due fonti può ridurre la varianza del segnale, beneficiare della diversificazione e produrre segnali predittivi superiori. Pertanto, un modello di insieme che calcola la media dei segnali predittivi di entrambi i tipi di dati dimostra le migliori prestazioni.

Zhang procede a discutere i potenziali vantaggi dell'incorporazione dei dati MBO (market-by-order) nelle previsioni e sottolinea la capacità di eseguire l'ingegnerizzazione delle funzionalità con questi dati. Presenta i risultati per orizzonti di previsione che vanno da due a 20 tick avanti, notando comportamenti simili osservati per 50 e 100 tick avanti. Zhang risponde anche alle domande del pubblico, inclusa la possibilità di addestrare un singolo modello utilizzando tutti gli strumenti per una migliore generalizzazione e la fonte dei dati MBO dalla Borsa di Londra. In risposta alla domanda di un membro del pubblico sul concentrarsi sulla NF1 invece che sulla PNL, Zhang concorda e riconosce che la PNL è una misura più rilevante del successo.

Zhang discute ulteriormente l'uso di segnali predittivi e vari modi per definirli, come l'utilizzo di un segnale grezzo o l'impostazione di una soglia basata sulle probabilità softmax. Riassume i punti chiave del documento, che propone la modellazione dei dati di mercato per ordine (MBO) invece dei dati del libro degli ordini limite e testa i modelli di deep learning, incluso il meccanismo di conservazione LSTM. I risultati indicano che una combinazione di MBO e dati del portafoglio ordini limite produce i risultati migliori. Zhang risponde alle domande del pubblico riguardanti l'autocorrelazione tra le mosse del mercato, il filtraggio delle negoziazioni rumorose e la motivazione per l'utilizzo dei livelli CNN nella modellazione delle immagini degli ordini limite.

Nella sezione seguente, Zhang spiega come il libro degli ordini può essere trattato come una struttura spaziale che può essere esplorata efficacemente utilizzando le reti neurali convoluzionali (CNN). L'utilizzo di una CNN per estrarre informazioni da ciascun livello di prezzo si è dimostrato prezioso per le previsioni. Lo strato di memoria a lungo termine (LSTM) viene scelto rispetto ai percettroni multistrato in quanto mantiene il flusso temporale dei dati e riassume gli eventi passati per fare previsioni. Zhang osserva che i vantaggi dell'utilizzo di un meccanismo di attenzione sono limitati a causa della natura delle serie temporali finanziarie. Il documento include una descrizione dettagliata degli iperparametri impiegati nel loro modello.

Zhang affronta la preoccupazione relativa al gran numero di parametri utilizzati nei metodi delle reti neurali e alla loro efficacia nella previsione del mercato azionario. Riconosce che l'abbondanza di parametri può essere oggetto di critica, ma sottolinea che il suo team ha messo a punto solo alcuni parametri specifici del proprio modello. Non hanno ancora preso in considerazione l'utilizzo dello spread bid-ask come criterio di successo, ma ne riconoscono il potenziale per ulteriori esplorazioni. Zhang ritiene che il loro modello abbia un valore pratico per l'esecuzione degli scambi e le strategie di market-making. Tuttavia, afferma che se si intende superare lo spread, potrebbe essere necessario eseguire il downsampling dei dati, poiché i frequenti aggiornamenti dei dati del book degli ordini possono complicare l'esecuzione degli scambi. Infine, quando modellano il portafoglio ordini limite Elo, aggregano la dimensione totale a ciascun livello di prezzo anziché includere informazioni sulle dimensioni dei singoli ordini.

Nella sezione conclusiva, Zhang spiega le differenze tra i dati market by order e market by price. I dati Market by Order consentono di tracciare i singoli ordini, cosa non possibile con i dati Market by Price. Con un'adeguata progettazione delle funzionalità, i dati market by order possono fornire informazioni aggiuntive e generare alfa. Zhang discute anche di come il suo modello tratta le modifiche al prezzo di uno specifico ordine limite mantenendo invariate le dimensioni. Ogni nuovo messaggio con prezzi aggiornati viene trattato come un nuovo aggiornamento, arricchendo il dataset.

Nel complesso, la presentazione di Zihao Zhang mette in mostra l'applicazione del deep learning ai dati market by order, evidenziando il suo potenziale per l'estrazione di preziose informazioni dai dati sulla microstruttura del mercato. Combinando i dati market by order e limit order book, il team di Zhang ha dimostrato la riduzione della varianza del segnale e la generazione di segnali predittivi migliorati. Il loro lavoro è promettente per migliorare l'esecuzione degli scambi e le strategie di market-making, offrendo un prezioso contributo al campo dell'analisi dei mercati finanziari.

  • 00:00:00 Zihao Zhang, postdoc presso l'Oxford Man Institute e parte del gruppo di ricerca sull'apprendimento automatico, presenta il suo recente lavoro con Brian Ling e Stefan Loren sull'applicazione di un modello di deep learning ai dati del mercato in base agli ordini. Zhang inizia con una breve introduzione dei dati sulla microstruttura del mercato, inclusi il portafoglio ordini limite e il mercato per dati sugli ordini. Sottolinea che quest'ultima è probabilmente la fonte di informazioni più granulare, che fornisce più aggiornamenti ed eventi rispetto ai dati del portafoglio ordini limite, eppure è ampiamente trascurata nella letteratura attuale. Zhang presenta il loro modello di deep learning e discute le architetture di rete che hanno progettato per questo tipo di dati. Sottolinea inoltre che il loro lavoro è il primo modello predittivo che utilizza i dati di mercato per ordine per prevedere il movimento ad alta frequenza e che fornisce una fonte ortogonale di informazioni che espande l'universo della scoperta alfa.

  • 00:05:00 Zihao spiega il concetto di registro degli ordini con limite, che è un registro di tutti gli ordini con limite in sospeso per uno strumento finanziario in un dato momento. Sottolinea che mentre i dati del grafico forniscono informazioni a bassa frequenza, il prezzo di un'azione è in realtà una serie temporale multivariata rappresentata dal portafoglio ordini limite. Zhang spiega come il registro degli ordini limite è suddiviso in diversi livelli di prezzo in base agli ordini inviati e ogni livello di prezzo è costituito da molti piccoli ordini segmentati da diversi trader. Discute anche di come il libro degli ordini viene aggiornato quando arriva un nuovo messaggio, che può aggiungere una nuova posizione, annullare un ordine esistente o aggiornare gli ordini esistenti. Zhang osserva che i dati derivati dal portafoglio ordini limite mostrano la relazione complessiva tra domanda e offerta per uno strumento finanziario specifico e il suo obiettivo è vedere se l'utilizzo dei dati di mercato per ordine, che contiene informazioni sull'inserimento e l'annullamento degli ordini, può fornire informazioni aggiuntive per fare previsioni.

  • 00:10:00 Zihao Zhang spiega come i dati sugli ordini di mercato possono essere utilizzati per il deep learning per fare previsioni sui movimenti del mercato. Sebbene le stringhe di messaggio nei dati degli ordini di mercato abbiano una dimensione inferiore rispetto al registro degli ordini limite, forniscono informazioni aggiuntive che possono essere utilizzate per le previsioni. Zhang spiega che le immagini di eventi passati possono essere formate come una matrice 2D e inserite in una rete neurale per la previsione. Le caratteristiche risultanti dallo strato convoluzionale possono quindi essere inserite negli strati neurali ricorrenti per apprendere la struttura e le dipendenze aggiuntive. Il livello finale emette previsioni basate su un'impostazione di classificazione utilizzando i rendimenti di soglia.

  • 00:15:00 Zihao Zhang dell'Oxford-Man Institute spiega l'architettura di rete utilizzata per fare previsioni dai dati del portafoglio ordini limite, in cui i primi due componenti vengono sostituiti con messaggi di singoli trader e i livelli convoluzionali vengono sostituiti con un livello LSTM o attenzione strato. Zhang spiega anche brevemente il meccanismo di attenzione, che in questo caso viene utilizzato per la previsione a punto singolo e coinvolge una struttura di codificatore e decodificatore, con il codificatore che estrae caratteristiche significative dai tempi di input e le riassume in uno stato nascosto, mentre il decodificatore genera la previsione . La normalizzazione viene utilizzata per determinare se un ordine è un acquisto o una vendita in base al prezzo medio.

  • 00:20:00 In questa sezione del video, Zihao Zhang presenta i risultati del modello addestrato con un gruppo di risorse, normalizzato su una scala simile e testato su diversi modelli come il modello lineare semplice, le percezioni multistrato, LSTM e modello di attenzione che utilizza sia i dati del gruppo di ordini limite che i dati ambientali puri. I risultati mostrano che i segnali predittivi dei dati ambientali sono meno correlati con i segnali del portafoglio ordini limite, suggerendo che una combinazione di questi due segnali può ridurre la varianza del segnale, beneficiare della diversificazione e produrre segnali predittivi migliori. Pertanto, il modello di insieme che calcola la media dei segnali predittivi di entrambi i tipi di dati offre le prestazioni migliori.

  • 00:25:00 Zihao Zhang discute i potenziali vantaggi dell'incorporazione dei dati MBO (market-by-order) nelle previsioni e menziona la possibilità di eseguire l'ingegnerizzazione delle caratteristiche con i dati. Sono stati mostrati i risultati per l'orizzonte di previsione di due-20 tick avanti, con comportamenti simili osservati per 50 e 100 tick avanti. Zhang risponde anche alle domande sull'implementazione del pubblico, inclusa la capacità di addestrare un singolo modello utilizzando tutti gli strumenti per una migliore generalizzazione e l'origine dei dati MBO dalla Borsa di Londra. Un membro del pubblico pone domande incentrate sulla NF1 invece che sulla PNL, su cui Zhang è d'accordo e riconosce che la PNL è una misura più rilevante del successo.

  • 00:30:00 Zihao Zhang discute l'uso di segnali predittivi e i diversi modi in cui possono essere definiti, come l'uso di un segnale grezzo o l'impostazione di una soglia di probabilità dal softmax. Riassume il documento, che propone di modellare i dati del mercato per ordine (MBO) invece dei dati del libro degli ordini limite e testare i modelli di deep learning incluso il meccanismo di conservazione LSTM. I risultati mostrano che una combinazione di entrambi i dati MBO e limit order book dà i migliori risultati. Zhang risponde anche alle domande del pubblico sull'autocorrelazione tra i movimenti del mercato, il filtraggio degli scambi rumorosi e la motivazione per l'utilizzo dei livelli CNN nella modellazione delle immagini degli ordini limite.

  • 00:35:00 In questa sezione del video, Zihao Zhang dell'Oxford-Man Institute spiega come il libro degli ordini può essere trattato come una struttura spaziale che può essere esplorata utilizzando gli stessi livelli. L'uso di una rete neurale convoluzionale (CNN) per estrarre informazioni da ciascun livello di prezzo si è rivelato utile per le previsioni. Lo strato di memoria a lungo termine (LSTM) è stato scelto rispetto alle percezioni multistrato perché non distorce il flusso temporale e riassume gli eventi passati per fare previsioni. I vantaggi dell'utilizzo di un meccanismo di attenzione sono risultati limitati a causa della proprietà delle serie temporali finanziarie. Il documento include una descrizione dettagliata degli iperparametri utilizzati.

  • 00:40:00 Zihao Zhang discute il numero di parametri utilizzati nei metodi delle reti neurali e la loro efficacia nella previsione del mercato azionario. Osserva che mentre il gran numero di parametri può essere una critica ai metodi delle reti neurali, lui e il suo team hanno messo a punto solo alcuni parametri per il loro modello specifico. Non hanno preso in considerazione l'utilizzo dello spread bid-ask come criterio di successo, ma riconoscono che potrebbe essere esplorato ulteriormente. Zhang ritiene che l'applicazione del loro modello sia utile per l'esecuzione degli scambi e le strategie di market making, ma se si desidera superare lo spread, potrebbe essere necessario sottocampionare i dati per effettuare uno scambio, poiché i dati del libro possono spesso avere troppi aggiornamenti per fare uno scambio. Infine, durante la modellazione del portafoglio ordini limite Elo, aggregano la dimensione totale a ciascun livello di prezzo invece di includere informazioni sulle dimensioni dei singoli ordini.

  • 00:45:00 In questa sezione, Zihao Zhang, dell'Oxford-Man Institute, spiega le differenze tra il mercato per ordine e il mercato per prezzo. I dati di mercato per ordine consentono di tracciare i singoli ordini, cosa non possibile con i dati di mercato per prezzo. Con un'adeguata progettazione delle funzionalità, i dati del mercato per ordine possono fornire informazioni aggiuntive e generare alfa. Inoltre, Zhang discute di come il suo modello tratta le modifiche al prezzo di un particolare ordine limite mantenendo invariate le dimensioni. Spiega che ogni nuovo messaggio con i prezzi aggiornati viene trattato come un nuovo aggiornamento.
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
  • 2021.10.27
  • www.youtube.com
Next up in the Cornell-Citi webinar series is Dr. Zihao Zhang, who spoke on Tuesday, Oct. 26.Abstract: Market by order (MBO) data - a detailed feed of indiv...
 

Vineel Yellapantula (Cornell MFE '20): "Quantificazione del testo nei documenti SEC



Vineel Yellapantula (Cornell MFE '20): "Quantificazione del testo nei documenti SEC"

Vineel Yellapantula presenta il suo progetto estivo, che prevede l'applicazione di tecniche di elaborazione del linguaggio naturale (NLP) per negoziare azioni sulla base di informazioni testuali trovate nei documenti SEC, concentrandosi in particolare sulla sezione MD&A. L'obiettivo del progetto è assegnare un punteggio ad ogni report dei 430 titoli presenti nel mercato statunitense e analizzarne le performance raggruppandoli in cinque quantili in base al punteggio. Yellapantula utilizza metodi tradizionali come il coseno e la somiglianza di Jaccard per determinare il punteggio di somiglianza tra i testi, con la somiglianza di Jaccard che si dimostra più coerente nel tempo. Esplora anche la creazione di un modello di analisi del sentimento utilizzando reti neurali ricorrenti (RNN) con Keras su un set di dati di testo, ottenendo un'impressionante precisione dell'87,5% con il suo modello.

Durante la presentazione, Yellapantula sottolinea l'importanza di selezionare il metodo appropriato per ogni problema specifico e incorporare dati aggiuntivi per migliorare i risultati. Sottolinea l'abbondanza di informazioni disponibili attraverso i dati di testo, in particolare all'interno degli archivi 10-K, e menziona che i fattori sviluppati utilizzando documenti precedenti possono essere più efficaci di quelli che si basano esclusivamente sul presente documento. Yellapantula indica varie alternative per l'utilizzo di tecniche di deep learning con dati di testo, tra cui glove, word2vec, BERT e RNN. Suggerisce inoltre di incorporare più fonti di dati, come archivi 8-K e cicli di notizie, per migliorare il potere predittivo dei modelli. Tuttavia, riconosce la presenza di bias di selezione nel suo studio, in quanto si concentra sui titoli azionari con buone prestazioni presenti nell'indice dal 2007 al 2020.

Nella sezione dedicata alla sentiment analysis, Yellapantula spiega il processo di creazione di un modello utilizzando gli RNN con Keras. I passaggi prevedono la tokenizzazione del testo per comprenderne il significato, la riduzione della dimensionalità attraverso incorporamenti e l'impiego di uno strato LSTM e uno strato denso con una funzione sigmoide per la classificazione del sentimento. Dimostra l'applicazione di questo approccio utilizzando le recensioni IMDB, limitando la lunghezza della recensione a 500 parole e riempiendo le recensioni più brevi con zeri per mantenere la coerenza. Attraverso una valutazione rigorosa, Yellapantula raggiunge un tasso di accuratezza dell'87,5% con il suo modello di analisi del sentiment.

Inoltre, Yellapantula sottolinea l'importanza della correlazione delle informazioni nel determinare l'efficacia dei fattori e la loro consistenza nel tempo. Fa riferimento a uno studio che suggerisce che le aziende con rapporti stabili tendono a ottenere buoni risultati, indicandolo come un fattore promettente da esplorare. In conclusione, Yellapantula esprime gratitudine al pubblico per il loro interesse e attende con impazienza un ulteriore coinvolgimento in futuro.

Il progetto di Vineel Yellapantula dimostra l'applicazione delle tecniche di PNL per estrarre preziose informazioni dalle informazioni testuali nei documenti SEC. Assegnando punteggi ai report e analizzando le loro prestazioni, il suo lavoro contribuisce alla comprensione di come il linguaggio può influenzare il trading azionario. Inoltre, la sua esplorazione dell'analisi del sentiment utilizzando gli RNN mostra il potenziale del deep learning nel catturare il sentiment dai dati testuali. Attraverso un'attenta selezione della metodologia e l'incorporazione di ulteriori fonti di dati, Yellapantula sottolinea l'opportunità di migliorare l'accuratezza e l'efficacia di tali modelli.

  • 00:00:00 In questa sezione, Vineel Yellapantula descrive il suo progetto estivo che prevedeva l'utilizzo di tecniche di elaborazione del linguaggio naturale (NLP) per scambiare azioni sulla base di informazioni testuali presenti nei documenti SEC, in particolare la sezione MD&A. Il progetto si è concentrato sulla ricerca di un punteggio per ogni report dei 430 titoli presenti nel mercato statunitense e sull'analisi della loro performance dopo averli raggruppati in cinque quantili in base al punteggio. Vineel ha utilizzato metodi tradizionali come coseno e somiglianza di jaccard per trovare un punteggio per la somiglianza tra i testi, con la somiglianza di jaccard che si è dimostrata più coerente nel tempo. Vineel menziona anche che a questo scopo possono essere utilizzate tecniche di deep learning come gli RNN.

  • 00:05:00 In questa sezione, Vineel Yellapantula spiega come creare un modello di analisi del sentiment utilizzando reti neurali ricorrenti (RNN) con keras su un set di dati di testo. Il processo prevede la tokenizzazione del testo per comprenderne il significato, la riduzione della dimensionalità mediante incorporamenti e quindi l'utilizzo di uno strato LSTM e uno strato denso con una funzione sigmoide per classificare il sentimento del testo. Vineel mostra come ha elaborato i dati utilizzando le recensioni IMDB, limitando la lunghezza delle recensioni a 500 parole e riempiendo quelle più brevi con zeri per mantenere la coerenza nella lunghezza. È stato in grado di raggiungere una precisione dell'87,5% con il suo modello.

  • 00:10:00 In questa sezione del video, Vineel Yellapantula discute l'abbondanza di informazioni disponibili attraverso i dati di testo, in particolare all'interno degli archivi 10-K. Osserva che molti fattori possono essere sviluppati attraverso questi depositi e i fattori che utilizzano documenti precedenti possono essere più efficaci di quelli che si concentrano esclusivamente sul presente documento. Inoltre, Yellapantula sottolinea che esistono varie alternative per l'utilizzo del deep learning con dati di testo, come glove, word2vec, BERT e RNN. Sottolinea che selezionare il metodo giusto per il problema specifico è fondamentale e incorporare più dati, come archivi 8-K e cicli di notizie, può portare a risultati migliori. Infine, Yellapantula riconosce che nel suo studio sono presenti alcuni pregiudizi di selezione poiché si è concentrato sui titoli azionari con buone prestazioni presenti nell'indice dal 2007 al 2020.

  • 00:15:00 In questa sezione, Vineel Yellapantula discute l'importanza della correlazione delle informazioni nel determinare se un fattore funziona o meno, così come la coerenza dei fattori nel tempo. Cita anche uno studio che ha rilevato che le aziende con rapporti stabili ottengono buoni risultati, indicandolo come un buon fattore da esplorare. Conclude ringraziando il pubblico per il suo interesse e non vede l'ora di vederli in autunno.
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
  • 2021.05.12
  • www.youtube.com
CFEM alumnus Vineel Yellapantula discusses his summer project at AbleMarkets under Prof. Irene Aldridge, “Quantifying Sentiment in SEC Filings.” By utilizing...
 

Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Università di Parma)



Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Università di Parma)

Peter Carr introduce un prodotto finanziario chiamato "stoptions" che combina le caratteristiche dei contratti futures e delle opzioni put. Le stoption consentono al proprietario di evitare variazioni di prezzo sfavorevoli incorporando un elemento di opzione put delle Bermuda. Carr spiega il concetto di opzioni e fornisce un esempio di un'opzione di tre giorni con diversi piani ad essa associati. Passa quindi a discutere la valutazione degli stop di un giorno e di due giorni, con questi ultimi che hanno due piani e la flessibilità di esercitare il primo o il secondo giorno.

Carr esplora ulteriormente la valutazione di stoption per periodi più lunghi approfondendo la ricorsione all'indietro, la valutazione di una put sposata e l'uso di pseudo-somme. Suggerisce di utilizzare la distribuzione logistica per rappresentare le variazioni di prezzo nelle opzioni put sposate. Il valore delle stoption può essere ottenuto utilizzando semplici formule per le opzioni "at-the-money" e la valutazione e la copertura possono essere effettuate analiticamente.

Carr conclude l'articolo discutendo le sfide associate all'adozione di tali opzioni da parte del mercato. Sottolinea l'importanza di trovare un acquirente e un venditore per questi prodotti e condivide le sue conversazioni con potenziali acquirenti e venditori. Inoltre, Carr riconosce che il modello stoptions è un'alternativa ai modelli esistenti come Black-Scholes e Bachelier, ma potrebbe non adattarsi in modo ottimale a tutte le situazioni. Tuttavia, sottolinea che il loro modello mira a catturare la moltitudine di operazioni binarie con un significato speciale in finanza.

In una sezione successiva, Carr e Lorenzo Torricelli propongono un modello di "fermate" utilizzando un paradigma coniugato e una distribuzione logistica. Questo modello offre flessibilità nella struttura a termine con un singolo parametro, consentendo la sistemazione di varie strutture a termine in un colpo solo. Tuttavia, potrebbe non adattarsi perfettamente al mercato a causa del suo grafico di volatilità implicita inclinato verso il basso. Gli autori riconoscono i limiti del loro modello e riconoscono le innumerevoli operazioni binarie in finanza che il loro modello mira a catturare. Discutono l'opzionalità tra uno strike e una singola opzione, così come l'opzionalità ripetuta attraverso la pseudo sommatoria. La sezione si conclude con l'apprezzamento reciproco e l'anticipazione della partecipazione reciproca ai seminari.

  • 00:00:00 Peter Carr introduce le "stoptions", un nuovo prodotto finanziario che è un ibrido tra un contratto futures e un'opzione put. La stoption ha un'attività sottostante e una durata fissa e un monitoraggio giornaliero, con il proprietario che accumula ogni variazione di prezzo nel sottostante. La stoption differisce da un contratto future in quanto il proprietario può evitare una variazione sfavorevole del prezzo, grazie all'elemento dell'opzione put. La put è Bermudan, il che significa che il proprietario può esercitarla alla fine di qualsiasi giorno, sostituendo la variazione di prezzo di quel giorno con un floor, una costante specificata contrattualmente che può essere qualsiasi funzione del tempo.

  • 00:05:00 Peter Carr spiega il concetto di opzioni e come funzionano negli accordi finanziari. Un'opzione è un prodotto finanziario che consente di scegliere quando interrompere l'esposizione alle variazioni di prezzo purché vi sia più di un giorno nel contratto di stop-shooting, fornendo flessibilità. Si può esercitare un'opzione solo una volta e, a quel punto, devono esercitarla. Il termine opzione si riferisce a quando interrompere l'esposizione al sottostante esercitando. Carr illustra questo concetto con un esempio di opzione di tre giorni e delinea i tre diversi piani associati a questa opzione. Il contratto scade poi quando si esercita l'opzione, che deve avvenire una sola volta. Sebbene attualmente tali contratti non siano negoziati, sono incorporati in molti accordi finanziari.

  • 00:10:00 Peter Carr discute un esempio di un contratto con lo stile di esercizio delle Bermuda chiamato "stoptions". Anche se non viene scambiato a titolo definitivo, le stoption possono aiutare a comprendere le Bermuda swaption e le loro differenze rispetto alle opzioni scritte sui livelli di prezzo. Assumendo variazioni di prezzo iid, la valutazione della stoption si riduce all'iterazione della funzione, e imponendo una particolare assunzione distributiva sulle variazioni di prezzo, la valutazione si riduce alla pseudo addizione. Le informazioni ottenute dalle stoption possono essere utilizzate per le opzioni Bermuda negoziate liquide, e Carr prosegue spiegando la valutazione delle stoption di un giorno e di due giorni. Gli stop di un giorno pagano un floor fisso, mentre gli stop di due giorni hanno due floor e possono essere esercitati sia il primo che il secondo giorno.

  • 00:15:00 in questa sezione, Peter Carr discute il guadagno alla fine del secondo giorno se l'esercizio viene svolto in quel momento. Conosciuto come u1, viene calcolato alla fine del primo giorno. Carr osserva che poiché u1 è una costante nota alla fine del primo giorno, potrebbe anche essere assunto alla fine del primo giorno. Inoltre, Carr suggerisce di fattorizzare u1 al tempo zero e di modificare il payoff a1 in a1 - u1. Questo rende il payoff simile a una put sposata oa una put scritta su u1, con u1 aggiunto al payoff put. Carr spiega che una volta che esiste un modello per valutare un'opzione vanilla, un'opzione multi-day, inclusa un'opzione 2-day, può essere valutata calcolando la put incorporata.

  • 00:20:00 In questa sezione, Peter Carr della NYU e Lorenzo Torricelli dell'Università di Parma discutono su come valutare le opzioni a due e tre giorni ipotizzando che gli incrementi di prezzo siano statisticamente indipendenti l'uno dall'altro e abbiano la stessa distribuzione. Usano un assunto comune in statistica, noto come iid (indipendente e distribuito in modo identico), per una sequenza di variabili casuali. Per valutare una put sposata per un'opzione di due giorni, usano una notazione che coinvolge una parte nota del payoff, chiamata a1, e il prezzo odierno dell'asset sottostante, chiamato a2. Per un'opzione di tre giorni, introducono un valore di continuazione, che denotano con cv, e usano la programmazione dinamica per calcolarne il valore.

  • 00:25:00 Peter Carr spiega il processo di ricorsione all'indietro e la valutazione di una put sposata. Inizia dal secondo giorno perché tutte le incertezze necessarie al problema vengono risolte alla fine del secondo giorno. Imposta il valore di continuazione al secondo giorno con un'opportunità di esercizio rimanente, che è il terzo giorno, quindi torna al primo giorno per calcolare il valore del payoff e il valore di continuazione. Quindi torna indietro al tempo zero alla data di valutazione e calcola il valore di continuazione e il payoff, che è il valore di una put sposata. La media del payoff casuale è il valore put sposato calcolato in precedenza e i parametri che contribuiscono alla distribuzione delle variazioni di prezzo sono noti al tempo zero.

  • 00:30:00 In questa sezione, Peter Carr discute la valutazione di una put sposata con strike A1 il cui sottostante è un'altra put sposata con strike A2. Spiega che questa valutazione comporta l'iterazione di una funzione, con un parametro che può differire in momenti diversi, e consentire alla funzione di comporsi da sola. La funzione che viene iterata è una funzione di valore di un giorno in stile europeo vanilla matrimonio put, e Carr osserva che una funzione che descrive questo valore e itera in forma chiusa può essere trovata sfruttando qualcosa chiamato equazione funzionale associativa. Valutando direttamente la funzione del valore put sposato e richiedendo che risolva l'equazione funzionale associatività, la distribuzione neutrale al rischio può essere determinata utilizzando i risultati di Breeden-Litzenberger. La sezione si conclude con una spiegazione che, con una funzione di un argomento e una g invertibile, è possibile determinare il valore put sposato.

  • 00:35:00 Peter Carr spiega il concetto di pseudo-somma, che è una combinazione di due argomenti in una funzione. Utilizzando una funzione invertibile, questa quantità può essere utilizzata per trovare il valore di un'opzione basata su n attraverso ripetute pseudo-somme dei floor. Per rendere questo metodo privo di arbitraggio, la funzione deve essere scelta con cura e rappresentata come un'aspettativa neutrale rispetto al rischio del suo payoff. Carr rivela che il generatore di questo metodo deve essere un log di qualsiasi base e lo scalare b deve essere positivo. Anche la put sposata deve essere valutata in modo appropriato utilizzando gli inversi logaritmici naturali, che richiedono una differenziazione doppia rispetto allo strike per ottenere la funzione di distribuzione. In definitiva, questo metodo comporta il ritorno a un fattore proporzionale di b, che non è la deviazione standard, ma è proporzionale ad essa.

  • 00:40:00 Peter Carr discute l'uso della distribuzione logistica per rappresentare le variazioni di prezzo nell'opzione put sposata. Deriva una formula per la put coniugata con strike a1 e media sottostante a2, utilizzando l'esponenziale di un prodotto finanziario con due componenti sottostanti. Si riferisce a questo come a una pseudo-somma ed espande l'insieme dei numeri reali per includere meno infinito come elemento neutro. Spiega che questo crea una struttura monoide commutativa, che è possibile solo con una valutazione dell'opzione senza arbitraggio e una distribuzione logistica simmetrica con code esponenziali. La distribuzione logistica consente un'esplicita funzione di distribuzione cumulativa ed è considerata più amichevole della distribuzione normale. Carr suggerisce che la scala della distribuzione logistica è una funzione crescente del tempo alla scadenza dell'opzione.

  • 00:45:00 Peter parla di "stoptions", un contratto che combina le caratteristiche di opzioni e swap. Le stoption implicano lo scambio di una variabile casuale logistica con un'altra, in cui le variabili sono indipendenti e distribuite in modo identico. Per valutare una sosta con n giorni, occorre specificare una funzione b di t che collega l'ampiezza della distribuzione logistica alla lunghezza dell'orizzonte temporale. Il valore di una bermudan stoption con floor è dato da formule semplici, e la valutazione e la copertura possono essere effettuate analiticamente. Per una stoption "at-the-money", il valore cresce in modo semplice, secondo il logaritmo del tempo.

  • 00:50:00 Peter Carr discute il modello di prezzo "stoptions", che presuppone incrementi iid e riduce la valutazione alla valutazione di funzioni iterate. Assumendo una distribuzione logistica per gli incrementi comuni, il modello si semplifica ulteriormente in una pseudo somma di un tipo particolare chiamata funzione esponenziale della somma logaritmica. I prezzi dei titoli sottostanti devono essere resi reali e non negativi a causa della responsabilità limitata. Il modello può essere esteso alle azioni, ridefinendo il contratto di opzione per moltiplicare i prezzi relativi invece di aggiungere incrementi di prezzo. La distribuzione risultante per supportare una variabile casuale positiva si chiama potenza coniugata digum, che è una distribuzione a coda pesante con asimmetria negativa, il che la rende una buona scelta. Ci sono future opportunità di ricerca per questo modello e può essere applicato a usi pratici come contratti sincronizzati con le riunioni della Federal Reserve.

  • 00:55:00 Peter Carr, professore alla NYU, discute l'adozione di un tipo di opzione da parte del mercato e il processo di ricerca di un acquirente e di un venditore. Parla della sua conversazione con il capo trader di esotici di Bank of America, che ha mostrato interesse ad acquistare l'opzione, e i possibili venditori, come una compagnia di assicurazioni o un piano pensionistico. Il processo di adozione prevede la ricerca di un acquirente e Peter condivide di aver pianificato una chiamata Zoom con un amico che lavora per una compagnia di assicurazioni a questo proposito. La conversazione si conclude con la discussione di Lorenzo Torricelli sui modelli finanziari basati sulla distribuzione logistica e sui processi associati.

  • 01:00:00 In questa sezione, Peter Carr discute i dettagli tecnici della struttura del prelievo dei rendimenti logaritmici del modello positivo e dei rendimenti nei modelli, che includono i processi log logistic, skew logistic e logistic return. Spiega che questi processi sono salti puri e possono essere considerati come una famiglia temporale infinitamente divisibile, per la quale un teorema garantisce l'esistenza di un processo additivo stocasticamente continuo con incrementi indipendenti. Inoltre, questo processo additivo supporta la distribuzione implicita dei prezzi alla base della formula di distribuzione dei titoli. Carr spiega quindi come questo processo sia naturalmente un mercato e come possieda buone proprietà desiderabili che supportano semplici formule di prezzo. Infine, presenta i risultati dei test numerici e un confronto di densità dei modelli di tariffazione logistica con modelli normali standard.

  • 01:05:00 Peter Carr discute le differenze tra la forma della distribuzione normale e logistica nel modello CPDA. Osserva che nel modello CPDA l'asimmetria e la forma della distribuzione cambiano nel tempo, mentre nel mondo normale ciò non accade. Osservando il confronto tra la distribuzione normale e quella logistica, afferma che le distribuzioni sono abbastanza simili, ma la curtosi può essere chiaramente apprezzata. Mostra anche i risultati della sua struttura di sistema cumulativo, in cui osserva che può generare forme molto più flessibili, come una variante esplosiva e un aumento molto ripido dell'asimmetria a breve termine. Infine, discute le superfici di volatilità implicita per i modelli cpda, dove osserva che la superficie di volatilità può essere flessibile con pochi parametri.

  • 01:10:00 Peter Carr della NYU e Lorenzo Torricelli dell'Università di Parma discutono il loro modello di "stoptions" proposto che utilizza un paradigma coniugato e una distribuzione logistica per creare una struttura a termine completamente flessibile con un solo parametro. Il parametro one crea simultaneamente più larghezza e asimmetria più negativa, ma deve essere compreso tra zero e uno per evitare che la media del momento non esista. Il modello può adattarsi a qualsiasi struttura a termine in uno strike, ma potrebbe non adattarsi sempre al mercato in modo ottimale poiché produce un grafico inclinato verso il basso, a differenza dei grafici inclinati verso l'alto della volatilità implicita rispetto allo strike. Carr e Torricelli riconoscono che il loro modello è un'alternativa ai modelli Black-Scholes e Bachelier, ma prevedono che il loro modello non sarà abbastanza buono per ogni situazione. Sostengono che esiste un'infinità innumerevole di operazioni binarie con proprietà simili come addizione e moltiplicazione che hanno un'importanza speciale per la finanza, che il loro modello mira a catturare.

  • 01:15:00 In questa sezione, Peter Carr e Lorenzo Torricelli discutono l'idea di opzionalità tra uno sciopero e un singolo, come un'opzione europea, così come l'opzionalità ripetuta come pseudo sommatoria ripetuta, che è Bermuda l'opzione dei mutanti. Menzionano l'importanza di tenere presente che ci sono più di due rapporti di operazioni binarie quando si sceglie una distribuzione e concludono la discussione ringraziandosi a vicenda e aspettando con impazienza di partecipare ai rispettivi seminari.
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
  • 2021.04.14
  • www.youtube.com
Abstract: We introduce a new derivative security called a stoption. After paying an upfront premium, the owner of a stoption accrues realized price changes ...
 

Lorenzo Torricelli (Università di Parma) - "Processi Logistici Additivi nel Prezzo delle Opzioni"



Lorenzo Torricelli (Università di Parma) - "Processi Logistici Additivi nel Prezzo delle Opzioni"

Lorenzo Torricelli, illustre professore all'Università di Parma, approfondisce le complessità del prezzo delle opzioni esplorando il modello logistico additivo e la specifica autosimilare. Nella sua presentazione illuminante, chiarisce la formula per la determinazione del prezzo delle opzioni vanilla utilizzando questi modelli innovativi e ne esemplifica l'applicazione mostrando un confronto di densità tra il modello di prezzo logistico e i modelli normali tradizionali.

Inoltre, Torricelli conduce un'analisi di benchmark della struttura a termine cumulativa per il modello logistico contro una rivoluzione lineare della struttura a termine per modelli omogenei. Le sue perspicaci osservazioni rivelano che il modello logistico offre una flessibilità significativamente maggiore nel modellare la struttura dei termini, fornendo così un notevole vantaggio rispetto agli approcci convenzionali.

Per fornire una comprensione completa, Torricelli esamina anche le superfici di volatilità associate a questi modelli. Nota la presenza di un'inclinazione positiva nel modello derivante dalla distribuzione asimmetrica dei rendimenti logaritmici e dalla curtosi della distribuzione logistica. Tuttavia, sottolinea l'assenza di asimmetria nella distribuzione logistica stessa, in quanto esibisce simmetria. Torricelli discute ulteriormente l'impatto dei parametri modali sulla struttura a termine della volatilità, riconoscendo il potenziale di miglioramento della parametrizzazione scelta.

In conclusione, Torricelli sottolinea che le formule di opzione derivate da questi modelli sono esplicite e ben note, facilitando la loro implementazione pratica. In particolare, elogia l'impressionante velocità dimostrata durante il test delle prestazioni. A testimonianza della trasparenza e della collaborazione accademica, Torricelli prevede di rendere pubblicamente accessibile il codice associato a questi modelli, a beneficio sia dei ricercatori che dei professionisti.

  • 00:00:00 Lorenzo Torricelli dell'Università di Parma introduce modelli finanziari basati sulla distribuzione logistica, partendo da equazioni di valutazione per funzionali di opzione e funzioni per la valutazione della cabina di merito. Prendendo la derivata rispetto a k, si ottiene la distribuzione implicita del prezzo del titolo, e si vede che la funzione logistica è associata al sottostante a valore reale, mentre la distribuzione logistica skew è associata al processo di prezzo positivo derivante dalla valutazione del merito messo . La struttura infinitamente divisibile delle distribuzioni è considerata come una famiglia temporale, e viene verificata l'esistenza di un processo additivo, risultando in processi stocasticamente continui con incrementi indipendenti che supportano la distribuzione dei prezzi implicita e determinano la formula dell'affermazione.

  • 00:05:00 Lorenzo Torricelli, professore all'Università di Parma, discute il modello logistico additivo e la specificazione self similar nel prezzo delle opzioni. Spiega la formula per valutare le opzioni vanilla utilizzando i modelli e le istanzia in termini di prezzo della funzione del termine. Mostra un confronto di densità tra il modello di prezzo logistico ei modelli normali e osserva che la forma della distribuzione del modello logistico cambia nel tempo mentre la forma della distribuzione normale no. Inoltre confronta la struttura a termine cumulativa per il modello logistico rispetto a una rivoluzione lineare della struttura a termine per modelli omogenei e osserva forme molto più flessibili con il primo.

  • 00:10:00 Lorenzo Torricelli discute i grafici per il modello CPDA e le superfici di volatilità implicita per i modelli SLA e CPDA. Le superfici di volatilità mostrano che c'è un'inclinazione nel modello positivo a causa della distribuzione asimmetrica dei rendimenti logaritmici e della curtosi della distribuzione logistica. Tuttavia, non vi è alcuna inclinazione nella distribuzione logistica in quanto è simmetrica. Torricelli afferma che anche i parametri modali hanno un impatto analogo sulla struttura a termine della volatilità e che vi è margine di miglioramento nella parametrizzazione scelta. Nel complesso, le formule delle opzioni sono esplicite e note e lo speed test è stato molto veloce. Anche il codice sarà reso pubblico.
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
  • 2021.04.12
  • www.youtube.com
On April 13th, 2021, as part of the Cornell-Citi Financial Data Science Seminar Series, Lorenzo Torricelli explains his work on logistic models in conjunctio...
 

Yumeng Ding (Cornell MFE '20) - "Interpretazione dei modelli di Machine Learning"



Yumeng Ding (Cornell MFE '20) - "Interpretazione dei modelli di Machine Learning"

Yumeng Ding, un abile ricercatore, approfondisce il regno dell'interpretazione dei modelli di apprendimento automatico per le previsioni dei prezzi delle azioni. Nella sua analisi completa, esplora una gamma di metodi di interpretabilità, inclusi grafici di dipendenza parziale, importanza delle caratteristiche di permutazione, statistiche sui bordi e LIME, per far luce sul funzionamento interno di questi modelli. Utilizzando questi metodi, Ding mira a svelare il contributo dei singoli fattori e dei loro effetti interattivi nella previsione dei prezzi delle azioni.

Lo studio di Ding ruota attorno a tre tipi di fattori: tecnici, di qualità e di valore, che vengono utilizzati come input per vari modelli di apprendimento automatico come classificatori e regressioni. Sfruttando i metodi di interpretabilità menzionati in precedenza, svela le intricate relazioni tra questi fattori e le previsioni del prezzo delle azioni. Attraverso rigorosi test retrospettivi, Ding scopre che i modelli non lineari superano i modelli lineari in termini di prestazioni. Inoltre, osserva che gli effetti di diversi fattori presentano variazioni temporali, evidenziando la natura dinamica della previsione del prezzo delle azioni. Alla fine, Ding identifica AdaBoost come il modello più adatto per il loro scenario specifico.

È importante sottolineare che Ding sottolinea l'importanza dei metodi di interpretabilità nella comprensione dei modelli di apprendimento automatico. Sottolinea che mentre l'approccio vettoriale fornisce rapide informazioni sulle interazioni più predittive, non riesce a rivelare la qualità di queste interazioni. Ding sottolinea il valore dell'utilizzo di grafici di dipendenza parziale bidimensionali per visualizzare in modo efficace interazioni più semplici. Inoltre, raccomanda il metodo del grafico a linee per approfondire le complessità delle interazioni individuali e visualizzare gli effetti locali, purché i dati siano sufficientemente chiari dal rumore.

Riassumendo le sue scoperte, Ding sottolinea due aspetti chiave del suo progetto. In primo luogo, conferma che i modelli di machine learning superano le regressioni lineari ingenue nella maggior parte degli scenari grazie alla loro capacità di catturare effetti di interazione complessi. In secondo luogo, sottolinea la fattibilità dell'interpretazione dei modelli di apprendimento automatico sfruttando una varietà di metodi di interpretabilità. Queste tecniche consentono ai ricercatori di chiarire i contributi individuali dei fattori e comprendere le loro influenze interattive sulle previsioni.

  • 00:00:00 Yumeng Ding discute il loro approccio all'interpretazione dei modelli di apprendimento automatico utilizzati per fare previsioni sui prezzi delle azioni. Hanno utilizzato tre tipi di fattori (tecnico, qualità e valore) per fare previsioni utilizzando vari modelli di apprendimento automatico come classificatori e regressioni. Per interpretare i loro modelli, hanno utilizzato metodi di interpretabilità come grafici di dipendenza parziale, importanza delle caratteristiche di permutazione, statistiche sui bordi e LIME, che hanno consentito la scomposizione degli effetti delle singole caratteristiche e delle loro interazioni. Attraverso i loro test retrospettivi, hanno scoperto che i modelli non lineari hanno superato i modelli lineari e gli effetti dei fattori sono cambiati nel tempo. Hanno concluso che AdaBoost era il modello migliore per il loro scenario.

  • 00:05:00 Yumeng Ding discute vari metodi per interpretare i modelli di apprendimento automatico. Sottolinea che mentre l'approccio vettoriale è rapido ed efficiente nel trovare le interazioni più predittive, mostra solo la forza anziché la qualità delle interazioni. Sottolinea che la dipendenza parziale bidimensionale è necessaria per visualizzare alcune semplici interazioni. Ding suggerisce che il metodo del grafico a linee è adatto per immergersi nel dettaglio delle singole interazioni e visualizzare le interazioni locali, a condizione che i dati non siano troppo rumorosi. Conclude osservando che il loro progetto mette in evidenza due aspetti da asporto: in primo luogo, i modelli di apprendimento automatico superano le regressioni ingenue lineari nella maggior parte degli scenari grazie alla loro capacità di catturare gli effetti di interazione. In secondo luogo, l'interpretazione dei modelli di machine learning è possibile con i vari metodi di interpretabilità disponibili, che ci consentono di spiegare come i singoli fattori contribuiscono alle previsioni sia individualmente che interattivamente.
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
  • 2021.03.12
  • www.youtube.com
March 9, 2021CFEM alumna Yumeng Ding discusses her team capstone project, which was titled, “Interpreting Machine Learning Models.” By utilizing Machine Lear...
 

Silvia Ruiz (Cornell MFE '20): "Come prevedere i movimenti delle azioni utilizzando tecniche di PNL"



Silvia Ruiz (Cornell MFE '20): "Come prevedere i movimenti delle azioni utilizzando tecniche di PNL"

Silvia Ruiz, una neolaureata del programma Cornell MFE, condivide le intuizioni del suo progetto incentrato sulla previsione dei prezzi delle azioni utilizzando tecniche di NLP (Natural Language Processing). L'obiettivo della ricerca del suo team era esplorare la relazione tra i documenti aziendali, come i rapporti 10-K e 10-Q, e il conseguente impatto sui prezzi delle azioni. Per raggiungere questo obiettivo, hanno raccolto un set di dati consistente composto da 1.095 rapporti dal sito Web EDGAR, che comprende 50 società in cinque settori dell'S&P 500.

Inizialmente, Ruiz e il suo team hanno sperimentato modelli basati su dizionari, ma hanno riscontrato limitazioni nella loro efficacia. Per risolvere questo problema, hanno incorporato metodi avanzati come il modello word to back e Finberg, che si sono rivelati cruciali per comprendere le sfumature contestuali incorporate nei documenti aziendali. Inoltre, hanno utilizzato varie misure di sentiment, tra cui polarità e complessità delle parole, nonché un modello xg boost, per prevedere i movimenti dei prezzi delle azioni.

L'accuratezza delle loro previsioni è stata valutata su due diversi intervalli di tempo. A breve termine, il loro modello ha raggiunto una notevole precisione del 61%, mentre a lungo termine ha dimostrato una rispettabile precisione del 53%. Sfruttando queste previsioni come segnali per le decisioni di investimento, hanno sovraperformato un portafoglio ugualmente ponderato. Tuttavia, Ruiz sottolinea la necessità di ulteriori ricerche in diversi settori per migliorare la precisione e la generalizzabilità delle loro scoperte.

Silvia Ruiz conclude la sua discussione offrendo generosamente le sue informazioni di contatto e fornendo un collegamento al repository del suo progetto su Github. Questo gesto incoraggia le indagini di follow-up e promuove la collaborazione per far progredire la comprensione e l'applicazione delle tecniche di PNL nel dominio della previsione del prezzo delle azioni.

  • 00:00:00 Silvia Ruiz, neolaureata alla Cornell MFE, parla del suo progetto sulla possibilità di prevedere i prezzi delle azioni utilizzando tecniche di PNL. Sylvia e il suo team miravano a indagare sull'impatto delle dichiarazioni aziendali come 10k e 10q sui prezzi delle azioni di una società e hanno raccolto i dati di 1095 rapporti dal sito web edgar di 50 società dell'S&P 500 di cinque settori. Hanno scoperto che l'utilizzo di modelli basati su dizionario non era efficace e richiedeva i metodi della parola per supportare il modello e Finberg per comprendere il contesto. Infine, hanno utilizzato una varietà di misure del sentimento, tra cui la polarità e la complessità delle parole, e hanno eseguito un modello xg boost con la variabile di previsione dei prezzi delle azioni.

  • 00:05:00 Silvia Ruiz spiega come ha tentato di prevedere i movimenti delle azioni utilizzando tecniche di PNL. Afferma che il suo team ha tenuto conto dei rendimenti del mercato prendendo i prezzi delle azioni prima della pubblicazione del rapporto e cinque giorni dopo, confrontandoli con il rendimento del mercato. L'accuratezza a lungo-breve termine era del 61% mentre quella a lungo termine era del 53% e hanno usato le loro previsioni come segnali per investire in azioni. La loro strategia si è rivelata più efficace del portafoglio equamente ponderato, ma sono necessarie ulteriori ricerche, in particolare in diversi settori, per ottenere risultati più accurati. Condivide le sue informazioni di contatto e il link Github per ulteriori richieste.
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
  • 2021.05.12
  • www.youtube.com
Silvia Ruiz will discuss her CFEM capstone project, which was titled, “How to Predict Stock Movements Using NLP Techniques.” By utilizing NLP techniques, the...
 

Charles-Albert Lehalle: "Un tentativo di comprendere l'elaborazione del linguaggio naturale"



Charles-Albert Lehalle: "Un tentativo di comprendere l'elaborazione del linguaggio naturale"

In questa presentazione video, Charles-Albert Lehalle e il suo team approfondiscono le applicazioni dell'elaborazione del linguaggio naturale (NLP) nel settore finanziario. La loro discussione ruota attorno a tre aree chiave: analisi del sentiment, previsione del prezzo delle azioni e modellazione dei costi di transazione. Riconoscono le sfide associate alla PNL, come il rischio di overfitting e bias negli incorporamenti, e propongono potenziali soluzioni, tra cui l'apprendimento multitasking e l'espansione dei lessici. Il team esplora sia il potenziale che i limiti della PNL nel settore finanziario, sottolineando l'importanza di comprendere il contesto e i modelli linguistici all'interno di diversi settori.

Lehalle e il suo team presentano i propri esperimenti utilizzando tecniche di PNL, fornendo preziose informazioni su come la PNL può comprimere le informazioni e offrire indicatori informativi per gli analisti finanziari. Sottolineano le sfide dell'impiego della PNL nella finanza, incluso il requisito di conoscenze specifiche del dominio e la difficoltà di estrarre informazioni significative da dati di testo non strutturati. Vengono discusse anche le preoccupazioni etiche relative all'uso della PNL nella finanza, come l'utilizzo dei dati dei social media per scopi commerciali.

Durante la presentazione, Charles-Albert Lehalle condivide la sua esperienza e conoscenza su vari argomenti di PNL. Spiega l'uso di metodi NLP basati sul lessico e sull'incorporamento in finanza, proponendo una combinazione di entrambi gli approcci per catturare caratteristiche lessicali e probabilistiche nei dati di testo. Vengono affrontate le sfide della distinzione tra sinonimi e contrari all'interno degli incorporamenti e il team di Lehalle esplora modelli generativi per controllare la struttura e il sentimento del testo. Viene sottolineata l'importanza di comprendere gli incorporamenti ei modelli di riferimento, come le matrici che rappresentano le distribuzioni di parole congiunte.

Lehalle esplora ulteriormente il significato del contesto nella PNL, discutendo di come gli incorporamenti possano essere distorti per parole positive e negative in base al contesto. Spiega l'uso delle catene di Markov per strutturare modelli di matrici di riferimento e presenta esperimenti sull'identificazione di sinonimi all'interno di incorporamenti. I limiti della PNL nell'acquisizione dei nomi delle società e le loro polarità associate sono riconosciuti, insieme al suggerimento dell'apprendimento multitasking per incorporamenti supervisionati. I relatori toccano anche lo squilibrio di parole positive e negative del Loughran-McDonald Lexicon e le sfide dell'elaborazione dell'ironia nei testi finanziari.

La presentazione si conclude con una panoramica di un progetto di Sylvia Ruiz, neolaureata alla Cornell Financial Engineering. Il progetto si concentra sulla previsione dei prezzi delle azioni utilizzando tecniche di PNL, in particolare estraendo sezioni di discussione manageriale dai documenti 10-K e 10-Q di 50 società S&P 500 e analizzando il sentiment per valutarne l'impatto sui prezzi delle azioni. Lehalle discute i limiti dei modelli basati su dizionario e spiega come il loro team ha ampliato il dizionario, utilizzato FinBERT per comprendere il contesto e utilizzato varie funzionalità per misurare il sentiment. Hanno ottenuto performance migliori rispetto a un portafoglio ugualmente ponderato sia a breve che a lungo termine.

In sintesi, Charles-Albert Lehalle e il suo team fanno luce sul potenziale e sulle sfide della PNL nella finanza. Offrono approfondimenti, esperimenti e strategie per applicare efficacemente le tecniche di PNL, sottolineando l'importanza dell'uso responsabile e una profonda comprensione sia della tecnologia che del dominio finanziario.

  • 00:00:00 Il relatore introduce Charles-Albert Lehalle, un esperto di finanza quantitativa, che terrà una presentazione di 40 minuti sulla PNL. Il relatore cita le precedenti pubblicazioni di Lehalle sulla finanza quantitativa, che trattano molteplici argomenti sulla PNL. L'oratore introduce anche Sylvia Ruiz, che si è recentemente laureata alla Cornell e ha lavorato a un progetto di PNL con Rebellion Research. Il discorso mira ad aiutare le persone a iniziare con la PNL, che spesso può intimidire a causa della necessità di raschiare i dati e applicare pacchetti. L'oratore accenna brevemente all'uso della PNL nella finanza e menziona che il team di Lehalle sta usando la PNL da più di un anno, con alcuni predittori e strategie in produzione. Il discorso si basa su un lavoro in corso di Mengedar e l'oratore incoraggia il pubblico a inviare collegamenti o documenti che ritengono debbano essere inclusi nella presentazione.

  • 00:05:00 Charles-Albert Lehalle discute le possibilità di utilizzare l'elaborazione del linguaggio naturale (NLP) nel trading finanziario. Utilizzando la PNL, i trader sono in grado di accedere rapidamente alle informazioni in forma di testo, come trascrizioni di annunci di guadagni, social media e notizie finanziarie. Queste informazioni possono dare ai trader un vantaggio in termini di velocità nell'acquistare prima degli altri e quindi spostare il prezzo verso l'alto. Inoltre, i trader possono utilizzare la PNL per analizzare una grande quantità di testo su molte società e classificarle in base ai rendimenti previsti. Tuttavia, Lehalle osserva che la PNL ha un alto rischio di sovralimentazione a causa della quantità di possibili parametri. Tuttavia, comprendendo le informazioni ricevute, i trader possono adattare le proprie strategie di conseguenza per ottenere un potenziale profitto.

  • 00:10:00 Charles-Albert Lehalle discute l'uso di metodi di elaborazione del linguaggio naturale (NLP) basati sul lessico e sull'incorporamento in finanza. Spiega come i sistemi basati sul lessico sono costruiti da analisti umani che annotano molto testo per identificare il sentimento positivo o negativo sulle azioni, mentre i sistemi basati sull'incorporamento modellano il contesto probabilistico delle parole. Lehalle propone che questi due metodi dovrebbero essere combinati per catturare sia le caratteristiche lessicali che probabilistiche dei dati di testo nei mercati finanziari. Descrive anche il suo approccio all'esplorazione di come gli incorporamenti possono catturare sinonimi e contrari, che possono avere implicazioni pratiche per l'analisi predittiva in finanza.

  • 00:15:00 In questa sezione, Charles-Albert Lehalle discute le sfide legate all'elaborazione del linguaggio naturale (PNL). Mentre l'acquisizione di sinonimi può ridurre la complessità di un testo, gli incorporamenti possono avere difficoltà a distinguere tra sinonimi e contrari. Questo crea una sfida se vuoi iniettare il tuo lessico in un sistema che non è in grado di differenziarli. Il team di Lehalle sta tentando di sviluppare un modello generativo di un testo per controllare la struttura del testo e il sentimento e vedere se riescono a recuperare ciò che hanno inserito nella lingua. Hanno in programma di utilizzare un ampio corpus di notizie finanziarie per applicare queste tecniche e analizzare come funzionano. Gli aspetti teorici di questo processo includono l'uso del metodo word 2x keygram e una matrice stocastica.

  • 00:20:00 In questa sezione, Charles-Albert Lehalle spiega l'elaborazione del linguaggio naturale utilizzando il modello word2vec skip-gram. Discute la decomposizione di basso rango della matrice per gli incorporamenti e come può essere riscritta come una rete neurale con un output soft max. Spiega anche come le teste di attenzione in modelli come BERT siano più locali, con molti incorporamenti locali che affrontano il contesto. Sottolinea l'importanza di comprendere gli incorporamenti e il modello di riferimento, che è una grande matrice nascosta che viene utilizzata per ottimizzare la funzione di perdita.

  • 00:25:00 Charles-Albert Lehalle spiega il concetto di modelli di riferimento nell'elaborazione del linguaggio naturale. Discute i diversi tipi di modelli di riferimento, tra cui una grande matrice che rappresenta la distribuzione congiunta di tutte le parole, una stima statistica del vero modello di riferimento e il modello di riferimento nascosto che ha generato il testo. Parla anche di sinonimi frequentisti, che sono parole che hanno lo stesso incastonatura pur essendo contrari dal punto di vista semantico, a causa della loro frequente apparizione nella stessa posizione in un corpus. Questa comprensione è importante nella discussione dell'etica nell'elaborazione del linguaggio naturale.

  • 00:30:00 In questa sezione, Lehalle discute l'importanza del contesto nell'elaborazione del linguaggio naturale e fornisce esempi di come gli incorporamenti possono essere distorti per parole positive e negative a seconda del contesto. Spiega anche come la generazione di un corpus utilizzando una catena di Markov possa aiutare a strutturare il grande modello di matrice di riferimento per le parole e come la funzione di perdita per una parola da incorporare correttamente sia un'entropia incrociata tra due distribuzioni. Il primo esperimento presentato prevede la progettazione di linguaggi sintetici con sinonimi e il tentativo di recuperare i sinonimi come blocchi negli embedding. Tuttavia, le incastonature sono risultate scarsamente identificabili, rendendo difficile il recupero di uno spazio a bassa dimensione da un'incorporamento di grandi dimensioni. Infine, vengono calcolate le somiglianze coseno tra incorporamenti di sinonimi.

  • 00:35:00 Charles-Albert Lehalle parla dell'utilizzo di Lung Hand Micro Lexicon per addestrare gli incorporamenti a fare una distinzione tra titoli di notizie finanziarie positive e negative. Osserva che gli incorporamenti non sono progettati per differenziare i sinonimi che appaiono frequentemente insieme, come le parole nei titoli, quindi l'utilizzo di incorporamenti nei titoli per identificare parole positive e negative è impegnativo. Tuttavia, osservando il corpo delle notizie finanziarie nel tempo, le metriche di somiglianza del coseno mostrano che le parole positive e negative sono chiaramente distinguibili l'una dall'altra. Lehalle mostra anche che i nomi delle società, come le banche, durante una crisi finanziaria, sono più vicini alle parole negative che a quelle positive. Nel complesso, il posizionamento del vocabolario all'interno degli incorporamenti influisce notevolmente sulla loro capacità di distinguere tra parole positive e negative nelle notizie finanziarie.

  • 00:40:00 Il relatore Charles-Albert Lehalle discute i limiti dell'elaborazione del linguaggio naturale (NLP) quando si tratta di nomi di società e le loro polarità associate, nonché la non stazionarietà degli incorporamenti. Suggerisce che gli incorporamenti si concentrino sulla priorità della distribuzione delle parole di quartiere, rendendo difficile per loro distinguere tra frequenze e sinonimi. Lehalle prosegue suggerendo che l'apprendimento multitasking, la formazione di incorporamenti simultaneamente a un compito supervisionato da un lessico polarizzato, potrebbe essere una buona idea. Inoltre, osserva che i nomi delle società possono essere un utile indicatore di reputazione e che le notizie generate dalla PNL sono una preoccupazione maggiore rispetto alle aziende che cercano di ingannare gli algoritmi della PNL. Infine, spiega che gli algoritmi della PNL potrebbero potenzialmente essere utilizzati per estrarre informazioni ed etichettarle con un nuovo valore, consentendo la deduzione delle stime degli analisti piuttosto che dei prezzi.

  • 00:45:00 In questa sezione del video, i relatori discutono dello squilibrio tra parole negative e parole positive nel Loughran-McDonald Lexicon, che è stato creato dagli esseri umani e viene utilizzato nell'elaborazione del linguaggio naturale (PNL) per l'analisi del testo finanziario. Suggeriscono che lo squilibrio potrebbe essere dovuto alla natura legale e strutturata dei documenti finanziari scritti da avvocati che tendono ad essere protettivi. I relatori toccano anche l'uso della PNL nella modellazione dei costi di transazione e le sfide dell'elaborazione dell'ironia nei lunghi testi finanziari. Presentano quindi Sylvia Ruiz, una neolaureata del programma Cornell Financial Engineering, che presenta il progetto del suo team sulla previsione dei prezzi delle azioni utilizzando tecniche di PNL. Il progetto si è concentrato sullo scraping di sezioni di discussione sulla gestione dai documenti 10K e 10Q di 50 società nell'S&P 500 e sull'analisi del sentiment per determinare l'impatto sui prezzi delle azioni.

  • 00:50:00 Charles-Albert Lehalle discute i problemi con l'utilizzo di modelli basati su dizionario per l'elaborazione del linguaggio naturale (PNL) e come lui e il suo team hanno utilizzato le tecniche di PNL per migliorare i propri modelli. Spiega come hanno ampliato il loro dizionario per avere una classificazione delle parole più equilibrata utilizzando un modello skipgram e il modello FinBERT per comprendere il contesto. Hanno quindi utilizzato varie funzionalità per misurare il sentimento e la complessità delle parole prima di eseguire un modello xg boost per prevedere se il prezzo di un'azione sarebbe salito o sceso. Sebbene la loro accuratezza fosse relativamente bassa, sono stati in grado di creare una strategia che ha funzionato meglio di un portafoglio ugualmente ponderato sia a breve che a lungo termine.

  • 00:55:00 Charles-Albert Lehalle discute il potenziale dell'elaborazione del linguaggio naturale (NLP) nel settore finanziario. Suggerisce che sono necessarie ulteriori ricerche e che potrebbe essere utile dividere l'industria in settori perché ogni settore ha un modello linguistico diverso. Inoltre, sconsiglia di cercare di comprendere simultaneamente il testo e prevedere cose come le aspettative, poiché la PNL potrebbe essere utilizzata meglio per comprimere le informazioni e fornire indicatori informativi. Invece, gli analisti possono utilizzare il proprio ragionamento per confrontare le previsioni con le aspettative e creare un "predittore di sorpresa". Nel complesso, Lehalle sottolinea la necessità di comprendere i limiti ei punti di forza della PNL prima di tentare di integrarla nell'analisi finanziaria.

  • 01:00:00 In questa sezione, i relatori discutono dell'uso dell'adversarial training per i modelli di PNL per aumentarne la solidità. Questa tecnica può essere applicata per affrontare i pregiudizi nel linguaggio, come la neutralità di genere. I relatori considerano anche l'uso dell'addestramento contraddittorio per rompere la neutralità tra parole positive e negative, ma avvertono che questo potrebbe non essere adatto per costruire strategie di trading. La discussione si sposta quindi sulle sfide dell'estrazione di sezioni da documenti finanziari, come i depositi di 10.000, a causa delle differenze nel modo in cui le aziende etichettano e formattano le loro sezioni.

  • 01:00:00 I relatori discutono dell'uso dell'adversarial training per i modelli di PNL per aumentarne la solidità. Questa tecnica può essere applicata per affrontare i pregiudizi nel linguaggio, come la neutralità di genere. I relatori considerano anche l'uso dell'addestramento contraddittorio per rompere la neutralità tra parole positive e negative, ma avvertono che questo potrebbe non essere adatto per costruire strategie di trading. La discussione si sposta quindi sulle sfide dell'estrazione di sezioni da documenti finanziari, come i depositi di 10.000, a causa delle differenze nel modo in cui le aziende etichettano e formattano le loro sezioni.

  • 01:05:00 In questa sezione del video, Charles-Albert Lehalle spiega di non aver confrontato i propri incorporamenti e l'indice del sentimento di Bloomberg in quanto non era lo scopo dello studio. Crede che i predittori di Bloomberg stiano probabilmente cercando di costruire predittori piuttosto che indici, che sono difficili da confrontare. Rivela che ci sono documenti sulla costruzione di fattori empirici di determinazione del prezzo delle attività utilizzando la PNL e spiega che la PNL può essere utilizzata per creare numerosi fattori basati sulle informazioni contenute nel corpus, come il fattore 10k o un fattore della sezione di rischio. Pertanto, la PNL è solo una tecnica e il corpus è il fattore più importante in questo caso.
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
  • 2021.02.17
  • www.youtube.com
Full Title: "An Attempt to Understand Natural Language Processing And Illustration On A Financial Dataset"Speaker: Charles-Albert Lehalle (Capital Fund Manag...