Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Martin Scholl (Università di Oxford): "Studiare l'ecologia del mercato utilizzando modelli basati su agenti"
Martin Scholl (Università di Oxford): "Studiare l'ecologia del mercato utilizzando modelli basati su agenti"
Martin Scholl, un ricercatore dell'Università di Oxford, ha approfondito lo studio dell'ecologia del mercato utilizzando modelli basati su agenti. A differenza degli approcci tradizionali che si basano su ipotesi come l'ipotesi del mercato efficiente, Scholl contesta la teoria dell'equilibrio delle aspettative razionali comunemente impiegata nella finanza neoclassica. Crede che questa teoria richieda a tutti i partecipanti di avere una perfetta comprensione del mondo reale, il che non è realistico dati i limiti cognitivi sia degli investitori al dettaglio che dei gestori di fondi. Invece, sostiene l'applicazione di strumenti della biologia per analizzare i dati finanziari del mondo reale, offrendo una nuova prospettiva sulla comprensione dei mercati finanziari.
Per esplorare l'ecologia del mercato, Scholl paragona le strategie di investimento alle specie in biologia, con i singoli investitori che rappresentano individui di una data specie. La ricchezza aggregata investita utilizzando una particolare strategia è paragonabile all'abbondanza o alla dimensione totale della popolazione di quella specie. In un modello giocattolo di un gioco di investimento, Scholl introduce uno scenario semplificato in cui gli agenti possono scegliere di lasciare la loro ricchezza in un conto del mercato monetario o investire in azioni che pagano dividendi. Questo modello consente l'esame di varie strategie di investimento e obiezioni all'assunzione neoclassica di perfetta razionalità.
Scholl identifica diverse strategie di investimento impiegate nei modelli basati su agenti per studiare l'ecologia del mercato. La prima è una strategia perfettamente razionale, in cui il valore patrimoniale netto è diviso tra azioni e contanti. Un investitore di valore stima il tasso di crescita del dividendo per fare previsioni future e comprendere il prezzo futuro del titolo. La seconda strategia coinvolge i follower di tendenza che analizzano i prezzi recenti ed estrapolano le tendenze. La terza strategia comprende i noise trader che entrano nel mercato per soddisfare le esigenze di liquidità ma non sono sensibili al prezzo su una scala temporale breve. Tuttavia, il loro processo di rumore di inversione della media è connesso al valore fondamentale su una scala temporale lunga.
Per simulare i meccanismi di mercato e studiare l'ecologia del mercato, Scholl e il suo team utilizzano modelli basati su agenti con l'aiuto di pacchetti software. Garantiscono la comparabilità tra le diverse esecuzioni del modello fissando le dotazioni e suddividendo le dotazioni iniziali tra individui di specie diverse, tenendo traccia della quota relativa. Le simulazioni si estendono su un arco di 200 anni, consentendo l'osservazione del rendimento medio annuo per ciascuna specie. È interessante notare che ogni strategia ha almeno una regione in cui è più redditizia, indipendentemente dalla sua abbondanza.
Nei suoi esperimenti, Scholl esamina il comportamento dei trend followers e l'impatto del reinvestimento dei profitti. Osserva che il mercato trascorre la maggior parte del suo tempo in una regione instabile e caotica con grandi valori anomali, con conseguente rumore maculato. Quando gli investitori reinvestono i loro profitti, le traiettorie fluttuano attorno a un punto centrale identificato ma non convergono interamente verso di esso. L'aumento della concentrazione dei trend followers porta a una maggiore volatilità dei rendimenti. Scholl attribuisce il rapido allontanamento dai trend followers alla razionalità degli investitori e all'autocorrelazione positiva nel processo dei dividendi.
Scholl spiega che i modelli basati su agenti possono essere impiegati per costruire una matrice della comunità finanziaria, simile alle equazioni di Volterra predatore e preda usate in biologia. Il rendimento di una particolare strategia è equiparato alla dimensione della popolazione e la sensibilità del ritorno ai cambiamenti nella dimensione della popolazione rappresenta la matrice della comunità. Nel mercato finanziario, la concorrenza tra diverse strategie si verifica quando i prezzi si discostano dai punti di equilibrio. Scholl sottolinea che i mercati finanziari mostrano una dipendenza dalla densità, rendendo le interazioni tra le specie più complesse che nei sistemi biologici. Questa dipendenza dalla densità porta a scenari come aumenti dei prezzi simili a bolle, ma riconosce che tali situazioni non sono realistiche.
Nel contesto dell'ecologia del mercato, Scholl discute le implicazioni pratiche delle sue scoperte. Presenta un modello lineare che utilizza l'abbondanza di specie per descrivere le relazioni tra diversi tipi di predatori, influenzando così i risultati di mercato. Questo approccio evidenzia la natura multidimensionale degli investimenti e dimostra l'importanza di strategie di dimensionamento appropriato per evitare perdite o diventare prede in mercati finanziari altamente dipendenti dalla densità. Sfida la visione tradizionale secondo cui i prezzi delle azioni riflettono tutte le informazioni fondamentali disponibili e presenta i mercati finanziari come sistemi complessi influenzati da varie condizioni.
Scholl elabora ulteriormente il suo uso di un semplice modello lineare all'interno di modelli basati su agenti per studiare l'ecologia del mercato. Analizzando le partecipazioni e la relativa abbondanza delle attività di mercato, ha scoperto che questo approccio ha superato i modelli derivati dai dipartimenti che presuppongono razionalità e traducono automaticamente i fondamentali. Tuttavia, riconosce i limiti del suo modello e sottolinea la necessità di ulteriori ricerche per migliorarne il realismo. Un aspetto che affronta è la sensibilità del modello a diverse ricette e definizioni, in particolare in relazione al trend following. Sebbene i dividendi svolgano un ruolo significativo nel suo modello, incorporare elementi più realistici per i mercati finanziari del mondo reale richiederebbe passaggi aggiuntivi.
Per quanto riguarda l'adattabilità delle convinzioni degli agenti nel suo modello, Scholl sottolinea che le operazioni di mercato spesso coinvolgono i gestori di fondi che seguono le strategie delineate nei prospetti per periodi prolungati. Ciò indica una tendenza verso processi di asset allocation meccanici. Di conseguenza, Scholl tende a modellare un comportamento meno adattivo e meno intelligenza. Tuttavia, sottolinea che altri ricercatori del suo gruppo presso l'Università di Oxford stanno esplorando attivamente l'applicazione di algoritmi evolutivi per modificare i parametri e persino innovare nuove strategie.
La ricerca di Martin Scholl si concentra sullo studio dell'ecologia del mercato utilizzando modelli basati su agenti. Sfida le teorie e le ipotesi finanziarie tradizionali applicando concetti della biologia per comprendere meglio i mercati finanziari. Confrontando le strategie di investimento con le specie in biologia, analizzando diverse strategie e simulando i meccanismi di mercato, Scholl scopre la complessità dei mercati finanziari e l'interazione tra le varie strategie. Le sue scoperte suggeriscono che i mercati finanziari dipendono fortemente dalla densità e che un adeguato dimensionamento delle strategie di investimento è fondamentale per evitare perdite e diventare prede in questo ecosistema dinamico. Il lavoro di Scholl fornisce preziose informazioni sulla natura dei mercati come sistemi complessi, contrastando la visione tradizionale secondo cui i prezzi delle azioni riflettono esclusivamente informazioni fondamentali.
Kevin Webster: "In che modo l'impatto dei prezzi distorce il conto economico"
Kevin Webster: "In che modo l'impatto dei prezzi distorce il conto economico"
In un video di YouTube, Kevin Webster approfondisce l'argomento di come l'impatto dei prezzi può distorcere i rendiconti contabili di profitti e perdite (P&L). Sottolinea l'importanza di modellare accuratamente l'impatto dei prezzi per gestire efficacemente il rischio e sottolinea l'importanza di gestire il rischio di liquidità per evitare di rimanere con una posizione illiquida. Webster riconosce che sono disponibili vari modelli di impatto sui prezzi, ma generalmente concordano sulla maggior parte dei dati.
Il discorso inizia affrontando l'intersezione tra impatto dei prezzi e rischio di liquidità, osservando in particolare che la liquidità dei principali mercati era spesso data per scontata prima della crisi finanziaria. Webster condivide potenti citazioni che illustrano come l'impatto del prezzo crei un'illusione di profitto, portando a dislocazioni di prezzo lontano dai valori finanziari. L'obiettivo del discorso è formalizzare matematicamente questo concetto, fornendo un quadro quantitativo basato sulla stima dell'impatto sul mercato della liquidazione per eliminare l'illusione del profitto.
Webster spiega l'impatto del prezzo come un modello causale per il trading, dove il trading più aggressivo spinge ulteriormente i prezzi e viceversa. I modelli di impatto sui prezzi sono ampiamente utilizzati nell'analisi dei costi di transazione e nell'esecuzione ottimale, fungendo da strumenti pre-negoziazione per stimare i costi di transazione previsti e ottimizzare le strategie di esecuzione. Presenta un finto rapporto di analisi dei costi di transazione che consente ai trader di valutare le prestazioni dei loro algoritmi su base trimestrale, con particolare attenzione alla riduzione al minimo dello slittamento degli ordini e alla considerazione sia delle mosse meccaniche che dello slittamento alfa.
Il relatore discute le linee guida pubblicate dall'Autorità europea degli strumenti finanziari e dei mercati (ESMA) in merito agli stress test di liquidità, che prevedono la simulazione della liquidazione degli asset durante i periodi di stress del mercato. La simulazione delle reazioni del mercato, come le dislocazioni dei prezzi, e l'impiego di strategie di copertura sono fondamentali per ridurre l'esposizione al rischio. Webster fa riferimento a varie pubblicazioni sugli stress test di liquidità e sull'impatto dei prezzi sul P&L contabile, inclusi i lavori di Cascioli, Boucheron, Farmer e comitati di regolamentazione come l'ESMA e il Baffled Committee. Sottolinea la necessità di stress test di liquidità per mitigare situazioni che potrebbero incidere sul conto economico e comportare elevati costi di liquidazione.
Viene introdotto il concetto di impronta di trading, che misura l'effetto distorsivo dell'impatto del prezzo sul P&L contabile e riunisce diverse definizioni di P&L. Webster presenta un semplice modello di svendita per illustrare le significative conclusioni sul conto economico tratte dal documento Casadio-Bouchard-Farmer. Spiega come il numero che i trader e i gestori di piattaforma osservano quotidianamente sovrastima il loro P&L finale, portando alla deflazione quando il commercio è completato. Tuttavia, questa proprietà dell'inflazione può essere misurata e visualizzata in tempo reale, fornendo informazioni utilizzabili per i trader. Webster osserva che le perdite di inflazione di posizione sono spesso temporanee e dipendono dalla tolleranza al rischio.
Vengono discusse le questioni relative alla valutazione di una posizione azionaria e il suo impatto sul P&L di una società. Webster evidenzia l'ambiguità nel determinare quali prezzi utilizzare per contrassegnare la posizione azionaria e la differenza tra il P&L contabile e il P&L fondamentale utilizzato dagli algoritmi di trading. L'impronta di trading è definita come la differenza tra P&L contabile e P&L fondamentale, con l'ambiguità risolta quando la posizione viene chiusa. L'oratore esplora l'inflazione della posizione, formulando alcune ipotesi in base alle quali questa proprietà è valida. Si accenna anche al modello di impatto e ai suoi due casi, la talpa OW originale e la talpa W studiata da Fruehwirth e Bond.
Webster spiega che affinché il modello abbia senso, deve essere soddisfatta una condizione di non arbitraggio tra lambda e beta, insieme a una condizione di equazione di autofinanziamento. Approfondisce il calcolo del P&L previsto al momento della chiusura e il modo in cui l'impronta di trading introduce pregiudizi nel P&L contabile. La proprietà di inflazione della posizione fa sì che la posizione si gonfi durante la fase di ingresso della posizione, rimanga durante la fase di mantenimento e alla fine evapori. Tutti questi aspetti possono essere osservati in tempo reale su una schermata di trading, fornendo ai trader preziose informazioni.
Webster spiega ulteriormente le distorsioni nel P&L contabile causate dall'impatto sui prezzi. Discute di come i trader possono effettuare operazioni redditizie anche senza alfa, ma avverte che questi profitti sono di breve durata a causa dei costi di transazione. Il monitoraggio tempestivo delle dislocazioni dei prezzi è fondamentale per evitare perdite. Inoltre, Webster osserva che i gestori di portafoglio preferiscono visualizzare i propri portafogli nel loro insieme e introduce il concetto di portafoglio stazionario, che controlla le dimensioni e il turnover di un portafoglio nel mondo della finanza matematica.
Il concetto di portafoglio stazionario viene quindi esplorato in relazione alla stima dei costi di transazione correnti. Comprendendo la scala temporale del propagatore, i trader possono stimare la misura in cui le loro posizioni sono gonfiate e l'illusione del profitto che potrebbero perdere liquidando le loro posizioni. Webster dimostra il framework utilizzando dati empirici, mostrandone l'applicabilità a scenari del mondo reale. Applica il framework a un modello di svendita e spiega le differenze tra P&L contabile e P&L fondamentale, evidenziando come informano diverse funzioni obiettivo basate sull'avversione al rischio di un trader.
L'oratore approfondisce l'impatto delle vendite forzate o dell'attività di trading di altri partecipanti al mercato sul P&L e sulla posizione di un trader. Una copertura aggressiva può portare a effetti di affollamento e inflazione di posizione, con conseguenti perdite permanenti. La modellazione accurata dell'impatto sui prezzi è fondamentale per un'efficace gestione del rischio e la gestione del rischio di liquidità è enfatizzata per evitare di ritrovarsi con posizioni illiquide.
Webster riconosce che sebbene siano disponibili molti diversi modelli di impatto sui prezzi, generalmente concordano sulla maggior parte dei dati. Tuttavia, possono sorgere differenze nell'entità e nella durata della persistenza dell'impatto. Le lussazioni temporanee possono durare da un paio di giorni a un mese. Dal punto di vista della gestione del rischio, esiste una chiara linea d'azione, mentre dal punto di vista del trader e della performance, una comunicazione efficace diventa fondamentale. Capire se P&L è meccanico o meno e rimuovere la parte meccanica consente ai trader di concentrarsi sull'alfa o sul vantaggio effettivo nelle loro operazioni.
Il relatore spiega il principio "nessuna manipolazione dei prezzi", sottolineando che anche se i trader ottengono profitti, non possono mantenerli poiché alla fine evaporeranno. L'inflazione di posizione porta alla deflazione del valore commerciale nel tempo o alla liquidazione immediata, con conseguenti profitti e perdite pari a zero o addirittura negativi. Pertanto, i trader devono fare affidamento su altre variabili per generare profitti sostenibili. Webster esplora ulteriormente la correlazione tra lo stato di impatto iniziale, l'impatto causato dal resto del mercato e l'impatto delle coperture del trader e del resto del mercato.
In conclusione, Kevin Webster fornisce una comprensione completa di come l'impatto dei prezzi può distorcere il conto economico. Fa luce sui costi aggiuntivi durante i regimi di liquidità ad alta volatilità e sulla loro correlazione con il mercato più ampio, sottolineando il loro impatto sul bias. Dal punto di vista normativo, è probabile che le obbligazioni societarie e le compagnie assicurative risentano maggiormente di questo pregiudizio. Sebbene Webster ammetta di non avere risposte dettagliate per i mercati al di fuori delle azioni, fornisce una solida base matematica per comprendere l'impatto dei prezzi e la sua potenziale distorsione del P&L.
Laura Leal (Princeton University) - "Imparare un controllo funzionale per la finanza ad alta frequenza"
Laura Leal (Princeton University) - "Imparare un controllo funzionale per la finanza ad alta frequenza"
Laura Leal, ricercatrice della Princeton University, ha tenuto una presentazione informativa sull'applicazione delle reti neurali profonde nella finanza ad alta frequenza. Ha sottolineato i limiti delle soluzioni convenzionali ed esplorato i vantaggi dell'utilizzo delle reti neurali in questo dominio. Leal ha evidenziato la loro capacità di adattarsi a fattori complessi come l'autocorrelazione e la stagionalità intraday, con cui i modelli tradizionali hanno difficoltà. Sfruttando le reti neurali, i trader possono ottenere un'esecuzione ottimale riducendo al minimo l'impatto sul mercato e negoziando senza intoppi.
Per affrontare le preoccupazioni sulla natura della scatola nera delle reti neurali, Leal ha introdotto il concetto di spiegabilità. Ha discusso la proiezione del controllo della rete neurale su una varietà di dimensioni inferiori, consentendo una migliore comprensione dei rischi associati e della deviazione dai settori di rischio familiari. Il team ha valutato le prestazioni del controllo della rete neurale, confrontandolo con la classica soluzione PDE (equazione differenziale parziale) in forma chiusa. Hanno esaminato la funzione del valore, la ricchezza mark-to-market e i relativi errori nelle proiezioni per valutare l'accuratezza e l'efficacia dell'approccio della rete neurale.
Leal ha approfondito le complessità dell'addestramento della rete neurale, sottolineando l'importanza di incorporare dati del mondo reale e dinamiche accurate. Ha inoltre proposto un controller multi-preferenza che consente ai trader di inserire le proprie preferenze di rischio, consentendo un adattamento più rapido alle nuove condizioni di mercato. Considerando i parametri di avversione al rischio e incorporando le preferenze di un trader, la rete neurale può generare una soluzione al problema dell'ottimizzazione stocastica nella finanza ad alta frequenza.
Il relatore ha discusso la struttura della rete neurale utilizzata per il controllo del rischio, evidenziandone la natura ricorrente. Sebbene la rete non sia eccessivamente profonda, utilizza una struttura ricorrente in ogni fase temporale, aggiornando simultaneamente i pesi. Gli input alla rete includono il tempo e l'inventario, mentre l'output è il controllo stesso, determinando la quantità ottimale di scorte da scambiare in ogni fase temporale. Per affrontare la sfida della limitata disponibilità di dati finanziari, viene utilizzato il transfer learning, simulando i dati utilizzando metodi Monte Carlo.
Leal ha delineato il processo di proiezione del controllo della rete neurale su uno spazio di funzioni lineare utilizzando la regressione lineare. Questa tecnica di proiezione facilita una migliore comprensione delle funzioni non lineari della rete neurale e il loro allineamento con soluzioni di controllo in forma chiusa. I risultati hanno dimostrato l'impatto dell'incorporazione dei parametri di stagionalità e avversione al rischio sulla reazione del modello al mercato. Inoltre, il relatore ha sottolineato il significato di gamma, che in letteratura è tipicamente impostato su due, ma ha mostrato una soluzione non lineare se preso come tre su due.
Le prestazioni e l'accuratezza del controllo della rete neurale nell'esecuzione di operazioni per la finanza ad alta frequenza sono state valutate a fondo. Leal ha confrontato la funzione del valore, la ricchezza mark-to-market e gli errori relativi nelle proiezioni in diversi scenari e valori gamma. Sebbene la rete neurale abbia mostrato prestazioni superiori, ha eseguito operazioni in modo non lineare, deviando dalla soluzione di controllo nota. Ciò ha sollevato interrogativi sulla decisione di negoziare utilizzando la rete neurale e determinando livelli di margine appropriati in base alla sua divergenza dalla soluzione stabilita.
Leal ha esplorato i vantaggi dell'approccio del controller multi-preferenza, consentendo ai trader di inserire i propri parametri di conversione del rischio e iniziare a fare trading immediatamente con un modello pre-addestrato. Sebbene la soluzione di rete neurale richiedesse più tempo per l'esecuzione rispetto alla soluzione PDE, offriva maggiore flessibilità e adattabilità alle diverse preferenze di rischio. Per migliorare la spiegabilità, Leal ha proposto un'idea di proiezione utilizzando la regressione lineare, riducendo il carico computazionale pur mantenendo la capacità di multi-preferenza. Ha anche evidenziato le applicazioni più ampie del concetto di approssimazione della rete neurale, suggerendo la sua rilevanza in altri problemi finanziari, come la copertura.
È stato discusso il processo di formazione per la rete neurale nella finanza ad alta frequenza, sottolineando la formazione offline per evitare problemi di latenza associati all'apprendimento per rinforzo online. La rete prende il tempo, l'inventario e potenzialmente i parametri di avversione al rischio come input e produce un tasso come output. Leal ha anche descritto la procedura di messa a punto nel trasferimento dell'apprendimento, passando da dati simulati a incrementi di dati reali ottenuti dalla Borsa di Toronto una volta che la rete è convergente. Il relatore ha sottolineato l'importanza di utilizzare dati del mondo reale e dinamiche accurate durante il processo di formazione, in quanto migliora la capacità della rete di catturare le complessità della finanza ad alta frequenza.
Nella sezione successiva, Laura Leal ha fornito approfondimenti sugli input e sulla funzione obiettivo impiegati nella rete neurale per la finanza ad alta frequenza. La rete neurale incorpora l'inventario come proporzione del volume medio per uno stock specifico durante un giorno, consentendo una rappresentazione normalizzata. La funzione obiettivo è inquadrata come un problema di massimizzazione, con l'output che funge da controllo per l'esecuzione ottimale. La struttura della rete neurale si basa sull'approssimazione delle funzioni, utilizzando due nodi di input e quattro livelli nascosti per acquisire le relazioni sottostanti.
Affrontando una domanda sulla discrepanza tra due soluzioni di controllo, Leal ha chiarito che potrebbe essere interpretata come un riflesso della mutevole utilità dell'investitore. Regolando il parametro gamma, è possibile utilizzare diverse funzioni di utilità, portando a variazioni nelle soluzioni di controllo. Nella loro ricerca, il team ha scelto il valore gamma di tre metà sulla base di test empirici con operatori reali, che hanno portato a prestazioni soddisfacenti.
Leal ha inoltre sottolineato che l'output della rete neurale è osservabile e analizzabile. Possono monitorare le posizioni assunte dalla rete e il modo in cui si evolvono durante la giornata di negoziazione, fornendo trasparenza e approfondimenti sul processo decisionale. Questo livello di interpretabilità e comprensione consente ai trader di acquisire fiducia nelle strategie di esecuzione della rete neurale.
Leal ha discusso anche delle sfide associate allo sviluppo di controlli funzionali per la finanza ad alta frequenza. Sebbene un processo di controllo medio possa fornire informazioni generali sull'esecuzione degli scambi, potrebbe non rappresentare accuratamente il comportamento delle singole traiettorie. Le dinamiche del mercato, come l'emergere di stock di meme, richiedono l'adattamento dei metodi di controllo per catturare efficacemente le condizioni in evoluzione.
In conclusione, la presentazione di Laura Leal ha fatto luce sulla complessità della creazione di controlli efficaci nell'ambito della finanza ad alta frequenza. Sfruttando le reti neurali profonde, ricercatori e commercianti possono superare i limiti dei modelli tradizionali e adattarsi alle dinamiche complesse di questo dominio. L'incorporazione di preferenze di rischio, misure di spiegabilità e dati del mondo reale contribuisce allo sviluppo di soluzioni di controllo robuste e adattabili. Attraverso il loro lavoro, Leal e il suo team offrono preziose informazioni e soluzioni che aprono la strada a un processo decisionale più efficiente e informato nella finanza ad alta frequenza.
Zihao Zhang (Oxford-Man Institute) - "Deep Learning per il mercato in base ai dati sugli ordini"
Zihao Zhang (Oxford-Man Institute) - "Deep Learning per il mercato in base ai dati sugli ordini"
Zihao Zhang, ricercatore post-dottorato presso l'Oxford-Man Institute e parte del gruppo di ricerca sull'apprendimento automatico, presenta il recente lavoro del suo team sull'applicazione del deep learning ai dati di mercato in base agli ordini. Il loro focus è sui dati della microstruttura del mercato, in particolare il portafoglio ordini limite, che fornisce preziose informazioni sulla dinamica complessiva della domanda e dell'offerta per uno specifico strumento finanziario. Combinando i dati market by order e limit order book, Zhang e il suo team hanno scoperto di poter ridurre la varianza del segnale e ottenere segnali predittivi migliori. Questa applicazione del loro modello ha il potenziale per migliorare l'esecuzione degli scambi e le strategie di market-making.
Zhang inizia la sua presentazione fornendo una breve introduzione ai dati sulla microstruttura del mercato, sottolineando in particolare l'importanza dei dati market by order. Questa fonte di dati offre informazioni altamente granulari, fornendo frequenti aggiornamenti ed eventi rispetto ai dati del portafoglio ordini limite, che ha ricevuto maggiore attenzione nella letteratura esistente. Introduce il loro modello di deep learning, spiegando le architetture di rete che hanno progettato per analizzare i dati market by order. Zhang sottolinea che il loro lavoro rappresenta il primo modello predittivo che utilizza i dati market by order per prevedere i movimenti ad alta frequenza, offrendo una fonte alternativa di informazioni che amplia le possibilità di scoperta dell'alfa.
Successivamente, Zhang approfondisce il concetto di registro degli ordini limite, che funge da registro completo di tutti gli ordini limite in sospeso per uno strumento finanziario in un determinato momento. Sottolinea che mentre i dati del grafico offrono informazioni a bassa frequenza, il prezzo di un'azione è in realtà rappresentato dal registro degli ordini limite, che è una serie temporale multivariata. Zhang spiega come il registro degli ordini limite è organizzato in diversi livelli di prezzo in base agli ordini inviati, con ogni livello di prezzo costituito da numerosi piccoli ordini segmentati da diversi trader. Discute anche di come il libro ordini viene aggiornato quando arrivano nuovi messaggi, che possono introdurre nuove posizioni, cancellare ordini esistenti o modificare ordini correnti. Zhang sottolinea che i dati derivati dal portafoglio ordini limite rivelano la relazione complessiva tra domanda e offerta per uno specifico strumento finanziario e il suo obiettivo è determinare se l'utilizzo dei dati market by order, contenenti informazioni sull'inserimento e sull'annullamento degli ordini, può fornire ulteriori approfondimenti per fare previsioni.
Andando avanti, Zhang esplora come i dati di mercato per ordine possono essere utilizzati nel deep learning per prevedere i movimenti del mercato. Sebbene le stringhe di messaggio nei dati dell'ordine di mercato possiedano dimensioni inferiori rispetto al registro degli ordini limite, offrono informazioni aggiuntive che possono essere sfruttate per le previsioni. Zhang spiega come gli eventi passati possono essere trasformati in matrici 2D, formando immagini che possono essere inserite in una rete neurale per la previsione. Le caratteristiche risultanti dallo strato convoluzionale possono quindi essere integrate negli strati neurali ricorrenti per apprendere la struttura e acquisire ulteriori dipendenze. Il livello finale produce previsioni basate su un'impostazione di classificazione utilizzando i ritorni di soglia.
Zhang procede a discutere l'architettura di rete utilizzata per fare previsioni utilizzando i dati del portafoglio ordini limite. In questo caso, i primi due componenti vengono sostituiti con i messaggi dei singoli trader e i livelli convoluzionali vengono sostituiti con un livello LSTM o livello di attenzione. Zhang spiega brevemente il meccanismo di attenzione, che facilita la previsione a punto singolo e coinvolge una struttura codificatore-decodificatore. Il codificatore estrae caratteristiche significative dai tempi di input e le riassume in uno stato nascosto, mentre il decodificatore genera la previsione. La normalizzazione viene utilizzata per determinare se un ordine è un acquisto o una vendita in base al prezzo medio.
Nella sezione successiva, Zhang presenta i risultati del loro modello addestrato con un gruppo di risorse, normalizzato su una scala simile e testato utilizzando diversi modelli come il modello lineare semplice, il percettrone multistrato, LSTM e il modello di attenzione, incorporando sia l'ordine limite dati contabili e dati ambientali puri. I risultati indicano che i segnali predittivi dei dati ambientali mostrano una minore correlazione con i segnali del portafoglio ordini limite, suggerendo che una combinazione di queste due fonti può ridurre la varianza del segnale, beneficiare della diversificazione e produrre segnali predittivi superiori. Pertanto, un modello di insieme che calcola la media dei segnali predittivi di entrambi i tipi di dati dimostra le migliori prestazioni.
Zhang procede a discutere i potenziali vantaggi dell'incorporazione dei dati MBO (market-by-order) nelle previsioni e sottolinea la capacità di eseguire l'ingegnerizzazione delle funzionalità con questi dati. Presenta i risultati per orizzonti di previsione che vanno da due a 20 tick avanti, notando comportamenti simili osservati per 50 e 100 tick avanti. Zhang risponde anche alle domande del pubblico, inclusa la possibilità di addestrare un singolo modello utilizzando tutti gli strumenti per una migliore generalizzazione e la fonte dei dati MBO dalla Borsa di Londra. In risposta alla domanda di un membro del pubblico sul concentrarsi sulla NF1 invece che sulla PNL, Zhang concorda e riconosce che la PNL è una misura più rilevante del successo.
Zhang discute ulteriormente l'uso di segnali predittivi e vari modi per definirli, come l'utilizzo di un segnale grezzo o l'impostazione di una soglia basata sulle probabilità softmax. Riassume i punti chiave del documento, che propone la modellazione dei dati di mercato per ordine (MBO) invece dei dati del libro degli ordini limite e testa i modelli di deep learning, incluso il meccanismo di conservazione LSTM. I risultati indicano che una combinazione di MBO e dati del portafoglio ordini limite produce i risultati migliori. Zhang risponde alle domande del pubblico riguardanti l'autocorrelazione tra le mosse del mercato, il filtraggio delle negoziazioni rumorose e la motivazione per l'utilizzo dei livelli CNN nella modellazione delle immagini degli ordini limite.
Nella sezione seguente, Zhang spiega come il libro degli ordini può essere trattato come una struttura spaziale che può essere esplorata efficacemente utilizzando le reti neurali convoluzionali (CNN). L'utilizzo di una CNN per estrarre informazioni da ciascun livello di prezzo si è dimostrato prezioso per le previsioni. Lo strato di memoria a lungo termine (LSTM) viene scelto rispetto ai percettroni multistrato in quanto mantiene il flusso temporale dei dati e riassume gli eventi passati per fare previsioni. Zhang osserva che i vantaggi dell'utilizzo di un meccanismo di attenzione sono limitati a causa della natura delle serie temporali finanziarie. Il documento include una descrizione dettagliata degli iperparametri impiegati nel loro modello.
Zhang affronta la preoccupazione relativa al gran numero di parametri utilizzati nei metodi delle reti neurali e alla loro efficacia nella previsione del mercato azionario. Riconosce che l'abbondanza di parametri può essere oggetto di critica, ma sottolinea che il suo team ha messo a punto solo alcuni parametri specifici del proprio modello. Non hanno ancora preso in considerazione l'utilizzo dello spread bid-ask come criterio di successo, ma ne riconoscono il potenziale per ulteriori esplorazioni. Zhang ritiene che il loro modello abbia un valore pratico per l'esecuzione degli scambi e le strategie di market-making. Tuttavia, afferma che se si intende superare lo spread, potrebbe essere necessario eseguire il downsampling dei dati, poiché i frequenti aggiornamenti dei dati del book degli ordini possono complicare l'esecuzione degli scambi. Infine, quando modellano il portafoglio ordini limite Elo, aggregano la dimensione totale a ciascun livello di prezzo anziché includere informazioni sulle dimensioni dei singoli ordini.
Nella sezione conclusiva, Zhang spiega le differenze tra i dati market by order e market by price. I dati Market by Order consentono di tracciare i singoli ordini, cosa non possibile con i dati Market by Price. Con un'adeguata progettazione delle funzionalità, i dati market by order possono fornire informazioni aggiuntive e generare alfa. Zhang discute anche di come il suo modello tratta le modifiche al prezzo di uno specifico ordine limite mantenendo invariate le dimensioni. Ogni nuovo messaggio con prezzi aggiornati viene trattato come un nuovo aggiornamento, arricchendo il dataset.
Nel complesso, la presentazione di Zihao Zhang mette in mostra l'applicazione del deep learning ai dati market by order, evidenziando il suo potenziale per l'estrazione di preziose informazioni dai dati sulla microstruttura del mercato. Combinando i dati market by order e limit order book, il team di Zhang ha dimostrato la riduzione della varianza del segnale e la generazione di segnali predittivi migliorati. Il loro lavoro è promettente per migliorare l'esecuzione degli scambi e le strategie di market-making, offrendo un prezioso contributo al campo dell'analisi dei mercati finanziari.
Vineel Yellapantula (Cornell MFE '20): "Quantificazione del testo nei documenti SEC
Vineel Yellapantula (Cornell MFE '20): "Quantificazione del testo nei documenti SEC"
Vineel Yellapantula presenta il suo progetto estivo, che prevede l'applicazione di tecniche di elaborazione del linguaggio naturale (NLP) per negoziare azioni sulla base di informazioni testuali trovate nei documenti SEC, concentrandosi in particolare sulla sezione MD&A. L'obiettivo del progetto è assegnare un punteggio ad ogni report dei 430 titoli presenti nel mercato statunitense e analizzarne le performance raggruppandoli in cinque quantili in base al punteggio. Yellapantula utilizza metodi tradizionali come il coseno e la somiglianza di Jaccard per determinare il punteggio di somiglianza tra i testi, con la somiglianza di Jaccard che si dimostra più coerente nel tempo. Esplora anche la creazione di un modello di analisi del sentimento utilizzando reti neurali ricorrenti (RNN) con Keras su un set di dati di testo, ottenendo un'impressionante precisione dell'87,5% con il suo modello.
Durante la presentazione, Yellapantula sottolinea l'importanza di selezionare il metodo appropriato per ogni problema specifico e incorporare dati aggiuntivi per migliorare i risultati. Sottolinea l'abbondanza di informazioni disponibili attraverso i dati di testo, in particolare all'interno degli archivi 10-K, e menziona che i fattori sviluppati utilizzando documenti precedenti possono essere più efficaci di quelli che si basano esclusivamente sul presente documento. Yellapantula indica varie alternative per l'utilizzo di tecniche di deep learning con dati di testo, tra cui glove, word2vec, BERT e RNN. Suggerisce inoltre di incorporare più fonti di dati, come archivi 8-K e cicli di notizie, per migliorare il potere predittivo dei modelli. Tuttavia, riconosce la presenza di bias di selezione nel suo studio, in quanto si concentra sui titoli azionari con buone prestazioni presenti nell'indice dal 2007 al 2020.
Nella sezione dedicata alla sentiment analysis, Yellapantula spiega il processo di creazione di un modello utilizzando gli RNN con Keras. I passaggi prevedono la tokenizzazione del testo per comprenderne il significato, la riduzione della dimensionalità attraverso incorporamenti e l'impiego di uno strato LSTM e uno strato denso con una funzione sigmoide per la classificazione del sentimento. Dimostra l'applicazione di questo approccio utilizzando le recensioni IMDB, limitando la lunghezza della recensione a 500 parole e riempiendo le recensioni più brevi con zeri per mantenere la coerenza. Attraverso una valutazione rigorosa, Yellapantula raggiunge un tasso di accuratezza dell'87,5% con il suo modello di analisi del sentiment.
Inoltre, Yellapantula sottolinea l'importanza della correlazione delle informazioni nel determinare l'efficacia dei fattori e la loro consistenza nel tempo. Fa riferimento a uno studio che suggerisce che le aziende con rapporti stabili tendono a ottenere buoni risultati, indicandolo come un fattore promettente da esplorare. In conclusione, Yellapantula esprime gratitudine al pubblico per il loro interesse e attende con impazienza un ulteriore coinvolgimento in futuro.
Il progetto di Vineel Yellapantula dimostra l'applicazione delle tecniche di PNL per estrarre preziose informazioni dalle informazioni testuali nei documenti SEC. Assegnando punteggi ai report e analizzando le loro prestazioni, il suo lavoro contribuisce alla comprensione di come il linguaggio può influenzare il trading azionario. Inoltre, la sua esplorazione dell'analisi del sentiment utilizzando gli RNN mostra il potenziale del deep learning nel catturare il sentiment dai dati testuali. Attraverso un'attenta selezione della metodologia e l'incorporazione di ulteriori fonti di dati, Yellapantula sottolinea l'opportunità di migliorare l'accuratezza e l'efficacia di tali modelli.
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Università di Parma)
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Università di Parma)
Peter Carr introduce un prodotto finanziario chiamato "stoptions" che combina le caratteristiche dei contratti futures e delle opzioni put. Le stoption consentono al proprietario di evitare variazioni di prezzo sfavorevoli incorporando un elemento di opzione put delle Bermuda. Carr spiega il concetto di opzioni e fornisce un esempio di un'opzione di tre giorni con diversi piani ad essa associati. Passa quindi a discutere la valutazione degli stop di un giorno e di due giorni, con questi ultimi che hanno due piani e la flessibilità di esercitare il primo o il secondo giorno.
Carr esplora ulteriormente la valutazione di stoption per periodi più lunghi approfondendo la ricorsione all'indietro, la valutazione di una put sposata e l'uso di pseudo-somme. Suggerisce di utilizzare la distribuzione logistica per rappresentare le variazioni di prezzo nelle opzioni put sposate. Il valore delle stoption può essere ottenuto utilizzando semplici formule per le opzioni "at-the-money" e la valutazione e la copertura possono essere effettuate analiticamente.
Carr conclude l'articolo discutendo le sfide associate all'adozione di tali opzioni da parte del mercato. Sottolinea l'importanza di trovare un acquirente e un venditore per questi prodotti e condivide le sue conversazioni con potenziali acquirenti e venditori. Inoltre, Carr riconosce che il modello stoptions è un'alternativa ai modelli esistenti come Black-Scholes e Bachelier, ma potrebbe non adattarsi in modo ottimale a tutte le situazioni. Tuttavia, sottolinea che il loro modello mira a catturare la moltitudine di operazioni binarie con un significato speciale in finanza.
In una sezione successiva, Carr e Lorenzo Torricelli propongono un modello di "fermate" utilizzando un paradigma coniugato e una distribuzione logistica. Questo modello offre flessibilità nella struttura a termine con un singolo parametro, consentendo la sistemazione di varie strutture a termine in un colpo solo. Tuttavia, potrebbe non adattarsi perfettamente al mercato a causa del suo grafico di volatilità implicita inclinato verso il basso. Gli autori riconoscono i limiti del loro modello e riconoscono le innumerevoli operazioni binarie in finanza che il loro modello mira a catturare. Discutono l'opzionalità tra uno strike e una singola opzione, così come l'opzionalità ripetuta attraverso la pseudo sommatoria. La sezione si conclude con l'apprezzamento reciproco e l'anticipazione della partecipazione reciproca ai seminari.
Lorenzo Torricelli (Università di Parma) - "Processi Logistici Additivi nel Prezzo delle Opzioni"
Lorenzo Torricelli (Università di Parma) - "Processi Logistici Additivi nel Prezzo delle Opzioni"
Lorenzo Torricelli, illustre professore all'Università di Parma, approfondisce le complessità del prezzo delle opzioni esplorando il modello logistico additivo e la specifica autosimilare. Nella sua presentazione illuminante, chiarisce la formula per la determinazione del prezzo delle opzioni vanilla utilizzando questi modelli innovativi e ne esemplifica l'applicazione mostrando un confronto di densità tra il modello di prezzo logistico e i modelli normali tradizionali.
Inoltre, Torricelli conduce un'analisi di benchmark della struttura a termine cumulativa per il modello logistico contro una rivoluzione lineare della struttura a termine per modelli omogenei. Le sue perspicaci osservazioni rivelano che il modello logistico offre una flessibilità significativamente maggiore nel modellare la struttura dei termini, fornendo così un notevole vantaggio rispetto agli approcci convenzionali.
Per fornire una comprensione completa, Torricelli esamina anche le superfici di volatilità associate a questi modelli. Nota la presenza di un'inclinazione positiva nel modello derivante dalla distribuzione asimmetrica dei rendimenti logaritmici e dalla curtosi della distribuzione logistica. Tuttavia, sottolinea l'assenza di asimmetria nella distribuzione logistica stessa, in quanto esibisce simmetria. Torricelli discute ulteriormente l'impatto dei parametri modali sulla struttura a termine della volatilità, riconoscendo il potenziale di miglioramento della parametrizzazione scelta.
In conclusione, Torricelli sottolinea che le formule di opzione derivate da questi modelli sono esplicite e ben note, facilitando la loro implementazione pratica. In particolare, elogia l'impressionante velocità dimostrata durante il test delle prestazioni. A testimonianza della trasparenza e della collaborazione accademica, Torricelli prevede di rendere pubblicamente accessibile il codice associato a questi modelli, a beneficio sia dei ricercatori che dei professionisti.
Yumeng Ding (Cornell MFE '20) - "Interpretazione dei modelli di Machine Learning"
Yumeng Ding (Cornell MFE '20) - "Interpretazione dei modelli di Machine Learning"
Yumeng Ding, un abile ricercatore, approfondisce il regno dell'interpretazione dei modelli di apprendimento automatico per le previsioni dei prezzi delle azioni. Nella sua analisi completa, esplora una gamma di metodi di interpretabilità, inclusi grafici di dipendenza parziale, importanza delle caratteristiche di permutazione, statistiche sui bordi e LIME, per far luce sul funzionamento interno di questi modelli. Utilizzando questi metodi, Ding mira a svelare il contributo dei singoli fattori e dei loro effetti interattivi nella previsione dei prezzi delle azioni.
Lo studio di Ding ruota attorno a tre tipi di fattori: tecnici, di qualità e di valore, che vengono utilizzati come input per vari modelli di apprendimento automatico come classificatori e regressioni. Sfruttando i metodi di interpretabilità menzionati in precedenza, svela le intricate relazioni tra questi fattori e le previsioni del prezzo delle azioni. Attraverso rigorosi test retrospettivi, Ding scopre che i modelli non lineari superano i modelli lineari in termini di prestazioni. Inoltre, osserva che gli effetti di diversi fattori presentano variazioni temporali, evidenziando la natura dinamica della previsione del prezzo delle azioni. Alla fine, Ding identifica AdaBoost come il modello più adatto per il loro scenario specifico.
È importante sottolineare che Ding sottolinea l'importanza dei metodi di interpretabilità nella comprensione dei modelli di apprendimento automatico. Sottolinea che mentre l'approccio vettoriale fornisce rapide informazioni sulle interazioni più predittive, non riesce a rivelare la qualità di queste interazioni. Ding sottolinea il valore dell'utilizzo di grafici di dipendenza parziale bidimensionali per visualizzare in modo efficace interazioni più semplici. Inoltre, raccomanda il metodo del grafico a linee per approfondire le complessità delle interazioni individuali e visualizzare gli effetti locali, purché i dati siano sufficientemente chiari dal rumore.
Riassumendo le sue scoperte, Ding sottolinea due aspetti chiave del suo progetto. In primo luogo, conferma che i modelli di machine learning superano le regressioni lineari ingenue nella maggior parte degli scenari grazie alla loro capacità di catturare effetti di interazione complessi. In secondo luogo, sottolinea la fattibilità dell'interpretazione dei modelli di apprendimento automatico sfruttando una varietà di metodi di interpretabilità. Queste tecniche consentono ai ricercatori di chiarire i contributi individuali dei fattori e comprendere le loro influenze interattive sulle previsioni.
Silvia Ruiz (Cornell MFE '20): "Come prevedere i movimenti delle azioni utilizzando tecniche di PNL"
Silvia Ruiz (Cornell MFE '20): "Come prevedere i movimenti delle azioni utilizzando tecniche di PNL"
Silvia Ruiz, una neolaureata del programma Cornell MFE, condivide le intuizioni del suo progetto incentrato sulla previsione dei prezzi delle azioni utilizzando tecniche di NLP (Natural Language Processing). L'obiettivo della ricerca del suo team era esplorare la relazione tra i documenti aziendali, come i rapporti 10-K e 10-Q, e il conseguente impatto sui prezzi delle azioni. Per raggiungere questo obiettivo, hanno raccolto un set di dati consistente composto da 1.095 rapporti dal sito Web EDGAR, che comprende 50 società in cinque settori dell'S&P 500.
Inizialmente, Ruiz e il suo team hanno sperimentato modelli basati su dizionari, ma hanno riscontrato limitazioni nella loro efficacia. Per risolvere questo problema, hanno incorporato metodi avanzati come il modello word to back e Finberg, che si sono rivelati cruciali per comprendere le sfumature contestuali incorporate nei documenti aziendali. Inoltre, hanno utilizzato varie misure di sentiment, tra cui polarità e complessità delle parole, nonché un modello xg boost, per prevedere i movimenti dei prezzi delle azioni.
L'accuratezza delle loro previsioni è stata valutata su due diversi intervalli di tempo. A breve termine, il loro modello ha raggiunto una notevole precisione del 61%, mentre a lungo termine ha dimostrato una rispettabile precisione del 53%. Sfruttando queste previsioni come segnali per le decisioni di investimento, hanno sovraperformato un portafoglio ugualmente ponderato. Tuttavia, Ruiz sottolinea la necessità di ulteriori ricerche in diversi settori per migliorare la precisione e la generalizzabilità delle loro scoperte.
Silvia Ruiz conclude la sua discussione offrendo generosamente le sue informazioni di contatto e fornendo un collegamento al repository del suo progetto su Github. Questo gesto incoraggia le indagini di follow-up e promuove la collaborazione per far progredire la comprensione e l'applicazione delle tecniche di PNL nel dominio della previsione del prezzo delle azioni.
Charles-Albert Lehalle: "Un tentativo di comprendere l'elaborazione del linguaggio naturale"
Charles-Albert Lehalle: "Un tentativo di comprendere l'elaborazione del linguaggio naturale"
In questa presentazione video, Charles-Albert Lehalle e il suo team approfondiscono le applicazioni dell'elaborazione del linguaggio naturale (NLP) nel settore finanziario. La loro discussione ruota attorno a tre aree chiave: analisi del sentiment, previsione del prezzo delle azioni e modellazione dei costi di transazione. Riconoscono le sfide associate alla PNL, come il rischio di overfitting e bias negli incorporamenti, e propongono potenziali soluzioni, tra cui l'apprendimento multitasking e l'espansione dei lessici. Il team esplora sia il potenziale che i limiti della PNL nel settore finanziario, sottolineando l'importanza di comprendere il contesto e i modelli linguistici all'interno di diversi settori.
Lehalle e il suo team presentano i propri esperimenti utilizzando tecniche di PNL, fornendo preziose informazioni su come la PNL può comprimere le informazioni e offrire indicatori informativi per gli analisti finanziari. Sottolineano le sfide dell'impiego della PNL nella finanza, incluso il requisito di conoscenze specifiche del dominio e la difficoltà di estrarre informazioni significative da dati di testo non strutturati. Vengono discusse anche le preoccupazioni etiche relative all'uso della PNL nella finanza, come l'utilizzo dei dati dei social media per scopi commerciali.
Durante la presentazione, Charles-Albert Lehalle condivide la sua esperienza e conoscenza su vari argomenti di PNL. Spiega l'uso di metodi NLP basati sul lessico e sull'incorporamento in finanza, proponendo una combinazione di entrambi gli approcci per catturare caratteristiche lessicali e probabilistiche nei dati di testo. Vengono affrontate le sfide della distinzione tra sinonimi e contrari all'interno degli incorporamenti e il team di Lehalle esplora modelli generativi per controllare la struttura e il sentimento del testo. Viene sottolineata l'importanza di comprendere gli incorporamenti ei modelli di riferimento, come le matrici che rappresentano le distribuzioni di parole congiunte.
Lehalle esplora ulteriormente il significato del contesto nella PNL, discutendo di come gli incorporamenti possano essere distorti per parole positive e negative in base al contesto. Spiega l'uso delle catene di Markov per strutturare modelli di matrici di riferimento e presenta esperimenti sull'identificazione di sinonimi all'interno di incorporamenti. I limiti della PNL nell'acquisizione dei nomi delle società e le loro polarità associate sono riconosciuti, insieme al suggerimento dell'apprendimento multitasking per incorporamenti supervisionati. I relatori toccano anche lo squilibrio di parole positive e negative del Loughran-McDonald Lexicon e le sfide dell'elaborazione dell'ironia nei testi finanziari.
La presentazione si conclude con una panoramica di un progetto di Sylvia Ruiz, neolaureata alla Cornell Financial Engineering. Il progetto si concentra sulla previsione dei prezzi delle azioni utilizzando tecniche di PNL, in particolare estraendo sezioni di discussione manageriale dai documenti 10-K e 10-Q di 50 società S&P 500 e analizzando il sentiment per valutarne l'impatto sui prezzi delle azioni. Lehalle discute i limiti dei modelli basati su dizionario e spiega come il loro team ha ampliato il dizionario, utilizzato FinBERT per comprendere il contesto e utilizzato varie funzionalità per misurare il sentiment. Hanno ottenuto performance migliori rispetto a un portafoglio ugualmente ponderato sia a breve che a lungo termine.
In sintesi, Charles-Albert Lehalle e il suo team fanno luce sul potenziale e sulle sfide della PNL nella finanza. Offrono approfondimenti, esperimenti e strategie per applicare efficacemente le tecniche di PNL, sottolineando l'importanza dell'uso responsabile e una profonda comprensione sia della tecnologia che del dominio finanziario.