Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Two Sigma presenta il deep learning per le sequenze nella finanza quantitativa David Kriegman
Two Sigma presenta il deep learning per le sequenze nella finanza quantitativa David Kriegman
Durante la presentazione, il relatore introduce l'evento e fornisce informazioni di base su Two Sigma, una rinomata società di scienze finanziarie che applica metodi scientifici al campo della finanza. Sottolineano che Two Sigma opera in più attività all'interno del settore finanziario, inclusi hedge fund quantitativi, servizi di broker-dealer, investimenti privati, assicurazioni e soluzioni per gli investitori. Il relatore sottolinea la diversità di background tra il pubblico, indicando che la conferenza si rivolge a persone a tutti i livelli di competenza, mostrando come il deep learning può essere applicato efficacemente nella finanza quantitativa. In particolare, menzionano che Two Sigma impiega circa 1600 professionisti in tutto il mondo, di cui 600 in possesso di lauree avanzate e oltre 200 in possesso di dottorato di ricerca.
Andando avanti, il relatore introduce il concetto di deep learning per le sequenze e illustra il suo impatto su varie applicazioni nell'ultimo decennio. Forniscono esempi come la classificazione dei sentimenti, il riconoscimento dell'attività video e la traduzione automatica. L'oratore spiega che le attività di elaborazione delle sequenze implicano l'acquisizione di sequenze come input e la generazione di sequenze come output, che possono variare in lunghezza. In particolare, discutono dell'applicazione del deep learning nella previsione dei valori del mercato azionario utilizzando sequenze storiche. L'oratore sottolinea l'importanza di prevedere sia i punti alti che quelli bassi al fine di massimizzare la redditività.
Successivamente, il relatore approfondisce la tipica pipeline di investimenti quantitativi nella finanza, che comprende una sequenza di processi coinvolti nel prendere decisioni di investimento. Descrivono le due fasi chiave della pipeline: modellazione alfa ed estrazione delle caratteristiche. La modellazione alfa implica la previsione della direzione dei prezzi delle azioni utilizzando modelli di mean reversion o modelli di momentum. L'estrazione delle caratteristiche si concentra sull'estrazione di caratteristiche tecniche dal mercato, come prezzo, volume e spread bid-ask. Il relatore sottolinea che questi processi alla fine portano a decisioni riguardanti l'acquisto o la vendita nei mercati, con l'obiettivo finale di generare profitti e ridurre al minimo le perdite. Sottolineano l'importanza di evitare il processo decisionale emotivo e sottolineano l'importanza della diversificazione dei portafogli nel regno della finanza.
Successivamente, David Kriegman di Two Sigma sale sul palco per discutere i fattori che svolgono un ruolo cruciale nel prendere decisioni informate nel commercio di azioni. Il primo fattore evidenziato è la raccolta di dati fondamentali, che possono essere ottenuti tramite segnalazioni dirette delle aziende o desunti da informazioni disponibili al pubblico. Inoltre, l'analisi del sentiment può essere condotta interpretando dati non strutturati derivati da fonti come notizie, social media e commenti degli analisti. Il relatore introduce l'idea di utilizzare fonti non tradizionali, come il numero di auto in un parcheggio o la congestione delle navi portacontainer in un porto, per raccogliere informazioni che possano indicare l'andamento di uno specifico stock. Dopo aver utilizzato il modello alfa per fare previsioni sulla performance delle azioni, il passaggio successivo nella pipeline prevede l'ottimizzazione del portafoglio. Questo passaggio comporta spesso la risoluzione di problemi di ottimizzazione su larga scala e la considerazione di fattori come le attuali disponibilità azionarie, la fiducia nelle previsioni, i requisiti di diversificazione e i costi di negoziazione associati. Infine, la fase di esecuzione implica prendere decisioni sulla dimensione, il posizionamento e il tipo di ordine, con l'ausilio di un modello per comprendere il potenziale impatto di queste azioni.
Tornando al tema del deep learning, il relatore sottolinea la natura sequenziale del processo decisionale della finanza quantitativa. Quindi spostano l'attenzione sull'apprendimento profondo, descrivendolo come un tipo di rete neurale caratterizzata da più livelli. Il relatore discute gli sviluppi significativi nelle reti neurali dalla loro introduzione iniziale negli anni '50, tra cui l'emergere di nuove architetture di rete, la disponibilità di enormi set di dati di addestramento e progressi nel calcolo parallelo. Per illustrare l'idea di base alla base di un singolo percettrone, l'oratore spiega come prende input, calcola una somma ponderata e passa il risultato attraverso una funzione non lineare. Dicono che la tradizionale funzione di attivazione, una soglia, è stata sostituita da un'alternativa chiamata unità lineare rettificata (ReLU), che emette zero per valori inferiori a una soglia e il valore effettivo per valori superiori.
Continuando con l'argomento delle reti neurali, il relatore introduce il concetto di percettrone multistrato. In questa architettura, ogni cerchio rappresenta un percettrone con la propria funzione di attivazione e insieme di pesi. Questo può essere rappresentato da una coppia di matrici di peso, consentendo la creazione di reti più grandi. Il relatore prosegue discutendo l'applicazione delle reti neurali per la modellazione alfa, in particolare nella previsione dei prezzi delle azioni sulla base della performance storica. La rete viene addestrata utilizzando un set di dati di addestramento che include sia le caratteristiche che i dati sui prezzi, con l'obiettivo di ottimizzazione di ridurre al minimo la perdita totale. Questo processo di addestramento coinvolge varie tecniche come la retropropagazione e la discesa del gradiente stocastico.
Per migliorare ulteriormente il modello alfa, il relatore spiega l'importanza di incorporare più funzionalità piuttosto che fare affidamento su un singolo segnale, come il prezzo o la storia passata. Combinando tutte le caratteristiche rilevanti, è possibile creare un modello più potente e accurato. Tuttavia, l'utilizzo di una rete completamente connessa con questo approccio può portare a un problema noto come la maledizione della dimensionalità, poiché il numero di pesi diventa estremamente elevato e non tutti possono essere allenati in modo efficace. Per superare questa sfida, il relatore introduce un'altra classe di reti di elaborazione di sequenze chiamate reti neurali ricorrenti (RNN). Queste reti introducono un aspetto di memoria e alimentano le informazioni all'indietro, costruendo uno stato con ogni istante di tempo. Di conseguenza, il problema di avere un numero eccessivo di pesi è mitigato. Negli RNN, i pesi sono condivisi tra ogni elemento, rendendo la rete profonda e fornendo una soluzione trattabile.
Il relatore sottolinea le difficoltà di addestrare reti profonde e come le reti chiuse, come le reti Gated Recurrent Unit (GRU) e Long Short-Term Memory (LSTM), affrontano queste sfide. Le reti chiuse incorporano porte analogiche che controllano il flusso di informazioni e consentono l'aggiornamento di stati precedenti con potenziali nuovi stati. I componenti di queste reti sono differenziabili, consentendo loro di essere addestrati utilizzando la retropropagazione. Rispetto agli LSTM, i GRU hanno capacità di memoria più lunghe.
Discutendo di varie architetture utilizzate nel deep learning per le sequenze, il relatore introduce le reti LSTM e GRU, nonché sviluppi più recenti come le reti neurali convoluzionali (CNN), i meccanismi di attenzione e i trasformatori. Toccano anche l'apprendimento per rinforzo, che ottimizza i processi decisionali sequenziali come quelli coinvolti nel trading e nelle interazioni di mercato. Mentre l'apprendimento per rinforzo ha mostrato successo nei giochi, applicarlo alla finanza richiede simulatori adeguati, una solida infrastruttura software e notevoli risorse computazionali. Nel complesso, il relatore sottolinea che le diverse architetture e modelli discussi rappresentano potenti strumenti per la finanza quantitativa, ciascuno con i propri vantaggi e sfide.
Tornando al contributo di David Kriegman, fa luce sulla pipeline impiegata nella finanza quantitativa e su come le reti neurali profonde possono essere addestrate per implementarne diverse parti. Sottolinea le vaste operazioni di Two Sigma, che comportano la negoziazione di migliaia di azioni e la presa di centinaia di milioni di decisioni ogni giorno. La gestione di tali enormi quantità di dati richiede una notevole potenza di calcolo, una solida infrastruttura software e un team di persone creative. Rispondendo alle preoccupazioni sulla mancanza di spiegabilità e interpretabilità associate alle reti neurali profonde e al loro impatto sullo sviluppo della strategia, Kriegman spiega che alcune architetture possono introdurre rappresentazioni interpretabili. Sottolinea inoltre che in scenari di trading in rapida evoluzione sono necessarie distribuzioni diverse. Inoltre, Two Sigma incorpora trader umani che monitorano e implementano sistemi durante eventi di mercato estremi.
Il relatore discute di come gli approcci di deep learning possano interagire con l'ipotesi di un mercato efficiente nella finanza quantitativa. Sebbene il mercato sia generalmente considerato efficiente, il deep learning può facilitare una risposta più rapida alle informazioni e offrire metodi alternativi di assimilazione dei dati, identificando potenzialmente inefficienze e opportunità di investimento. Sottolineano inoltre la rilevanza delle tecniche di visione artificiale nella modellazione sequenziale all'interno della finanza, in particolare durante le fasi iniziali dell'estrazione di caratteristiche da dati non strutturati. Two Sigma cerca attivamente persone per ruoli di ingegneria e modellazione e, sebbene ruoli diversi si allineino con team diversi, l'applicazione del deep learning pervade l'intera organizzazione. I neolaureati e i candidati di livello MSc sono incoraggiati a presentare domanda tramite il sito Web Two Sigma.
Durante la sessione di domande e risposte, il relatore affronta diverse sfide associate all'applicazione del deep learning alla finanza quantitativa. Una delle principali sfide è la mancanza di stazionarietà nelle serie temporali finanziarie, poiché i modelli di deep learning danno i migliori risultati quando il futuro assomiglia al passato. Per affrontare questo problema, il relatore sottolinea l'importanza della simulazione e della previsione per introdurre metodi di trasferimento del dominio, consentendo ai modelli di adattarsi alle mutevoli condizioni di mercato. Inoltre, il relatore osserva che il tasso di errore nella finanza quantitativa è generalmente più alto rispetto ad altri campi, e anche essere leggermente migliore del 50% può fornire un vantaggio significativo nel trading.
Alla domanda sulle implicazioni promettenti per la finanza quantitativa, il relatore afferma che quasi ogni area di ricerca nell'apprendimento profondo e nelle reti neurali ha implicazioni promettenti. Evidenziano specificamente l'apprendimento per rinforzo e il trasferimento del dominio come aree di interesse. Inoltre, riconoscono le sfide dell'archiviazione dei dati nella finanza e suggeriscono che le tecniche di compressione dei dati possono essere utili per affrontare questi problemi.
Espandendo l'argomento del team di ingegneri responsabile dell'implementazione di modelli di deep learning nella finanza quantitativa, il relatore spiega che il team lavora su varie attività, tra cui la gestione dello storage, i sistemi fisici e i livelli costruiti su tali sistemi. Sottolineano che sia i modelli di deep learning che i modelli statistici hanno i loro ruoli a seconda del caso d'uso specifico. Tuttavia, notano che se un modello profondo viene ridotto a una forma degenerata di regressione lineare, perde il suo intrinseco interesse e potere.
La presentazione sottolinea l'applicazione del deep learning nella finanza quantitativa, in particolare nel contesto dell'elaborazione delle sequenze e dei processi decisionali. Evidenzia le sfide e le opportunità che sorgono quando si utilizzano reti neurali profonde in questo dominio, inclusa la necessità di interpretabilità, affrontare la non stazionarietà e sfruttare diverse architetture. Durante la presentazione, Two Sigma viene presentata come un'azienda di spicco che incorpora attivamente tecniche di deep learning nelle sue operazioni e cerca attivamente persone di talento da inserire nel proprio team.
Due regali Sigma: modelli di apprendimento automatico dei dati finanziari
Due regali Sigma: modelli di apprendimento automatico dei dati finanziari
Justin Ceriano di Two Sigma Securities offre una presentazione completa sull'integrazione dei modelli di apprendimento automatico nel campo della finanza. Inizia evidenziando il crescente interesse delle società finanziarie nello sfruttare l'apprendimento automatico per migliorare le loro capacità predittive e i processi decisionali. Nello specifico, gli algoritmi di apprendimento automatico possono essere utilizzati per prevedere i prezzi futuri degli strumenti finanziari e determinare strategie di trading ottimali.
Ceriano introduce il concetto di apprendimento per rinforzo, che rientra in una classe di metodi in grado di apprendere le politiche decisionali direttamente dai dati disponibili al fine di massimizzare una funzione obiettivo appropriata. L'apprendimento per rinforzo si rivela particolarmente prezioso nella finanza, dove l'obiettivo è ottimizzare i risultati sulla base di dati storici.
Uno degli aspetti fondamentali discussi è l'applicazione di modelli di apprendimento automatico per analizzare i libri degli ordini con limite nei mercati elettronici. In questo sistema, acquirenti e venditori inviano ordini specificando i prezzi ai quali sono disposti ad acquistare o vendere un particolare asset. Questi ordini vengono quindi abbinati in base al miglior prezzo ask o bid disponibile. Ceriano sottolinea che i dati del portafoglio ordini, che rappresentano la domanda e l'offerta visibili di uno stock, formano una sequenza ad alta dimensione che può essere efficacemente utilizzata per prevedere le future variazioni di prezzo utilizzando modelli di apprendimento automatico.
Inoltre, Ceriano sottolinea l'importanza di considerare spread diversi da zero nelle strategie di trading. Questi spread possono influire sulla redditività delle previsioni dei prezzi, richiedendo quindi un'attenta valutazione e aggiustamento.
Per dimostrare l'implementazione pratica dei modelli di apprendimento automatico, Ceriano spiega la costruzione di una rete neurale ricorrente progettata per prevedere le variazioni di prezzo utilizzando dati finanziari ad alta frequenza. Il modello viene addestrato per prevedere se la prossima variazione di prezzo sarà positiva o negativa e le sue prestazioni vengono confrontate con un modello ricorrente lineare. Il set di dati utilizzato è costituito da tre anni di dati ad alta frequenza evento per evento per circa 1.000 azioni. L'obiettivo è valutare se i modelli di apprendimento automatico non lineare, come le reti ricorrenti, superano i modelli statistici lineari nell'acquisizione di relazioni non lineari all'interno dei dati. L'ottimizzazione delle previsioni dei modelli è ottenuta attraverso l'algoritmo di backpropagation, minimizzando l'errore di previsione. Per ridurre i costi computazionali, viene utilizzato l'algoritmo di backpropagation troncato nel tempo.
Nella presentazione vengono affrontate le sfide relative all'ottimizzazione delle reti ricorrenti, in particolare il noto problema del gradiente di fuga. Il problema del gradiente evanescente si riferisce al problema dei gradienti che diventano estremamente piccoli man mano che si propagano attraverso gli strati inferiori della rete. Di conseguenza, ciò può ostacolare la velocità di addestramento e rendere difficile per la rete conservare le informazioni da parti distanti della sequenza. Ceriano introduce la rete Long Short-Term Memory (LSTM), uno dei tipi più popolari di reti ricorrenti, che è stata specificamente progettata per affrontare questo problema aggiornando in modo efficiente lo stato della memoria, consentendo così al modello di conservare informazioni rilevanti da lontano il passato.
La presentazione prosegue discutendo l'addestramento e la valutazione dei modelli di apprendimento automatico utilizzando i dati del portafoglio ordini ad alta frequenza. Gli autori confrontano l'accuratezza di un modello lineare con quella di una rete ricorrente LSTM e i risultati indicano chiaramente le prestazioni superiori del modello di deep learning quando testato su circa 500 titoli per un periodo fuori campione di tre mesi. La discussione approfondisce anche la natura universale della relazione tra i dati del portafoglio ordini e i movimenti dei prezzi, suggerendo l'esistenza di un modello universale di formazione dei prezzi applicabile a più azioni. Questa scoperta ha implicazioni pratiche significative, come la riduzione dei costi computazionali e la capacità di migliorare un modello per uno stock utilizzando i dati di un altro.
L'esperimento mira ad addestrare un modello universale riunendo i dati di numerosi titoli e valutandone l'accuratezza rispetto ai modelli specifici dei titoli. I risultati dimostrano costantemente la superiorità del modello universale, indicando l'universalità condivisa nelle dinamiche del portafoglio ordini tra diversi titoli. Ciò non solo riduce l'overfitting, ma migliora anche la precisione del modello. Inoltre, il modello universale mostra stabilità per oltre un anno e scalabilità con l'ausilio del calcolo ad alte prestazioni, utilizzando 25 GPU con discesa del gradiente stocastico asincrono.
La presentazione esplora anche l'applicazione dell'apprendimento per rinforzo per ottimizzare le strategie di invio degli ordini per un'esecuzione ottimale. L'attenzione si concentra sullo sviluppo di politiche per ordini di mercato o ordini limitati di un'azione, con l'obiettivo di massimizzare i premi attesi e il risparmio sui costi entro intervalli di tempo discreti. Utilizzando i dati storici del portafoglio ordini, il modello di apprendimento per rinforzo viene addestrato per simulare i prezzi eseguiti per piccoli ordini. Il modello determina se inviare immediatamente un ordine di mercato o attendere che il miglior prezzo ask diminuisca, utilizzando come input i dati del registro degli ordini limite. Le prestazioni del modello vengono valutate utilizzando un anno di dati e quindi testate su un set di dati separato di sei mesi.
Vengono presentati i risultati della simulazione in un universo di 100 azioni, considerando orizzonti temporali di 10 e 60 secondi sia per una strategia di apprendimento per rinforzo solo per ordini di mercato sia per una semplice strategia di ordini limite. I risultati indicano costantemente risparmi sui costi positivi raggiunti dal modello di apprendimento per rinforzo nei 50 titoli, anche se con una certa variabilità. Inoltre, i risparmi sui costi tendono ad aumentare con orizzonti temporali più lunghi. La presentazione introduce il concetto di utilizzo dei dati storici del portafoglio ordini per simulare se un ordine limite inviato verrà eseguito entro un intervallo di tempo specifico. Il modello di apprendimento per rinforzo viene addestrato per selezionare dinamicamente il momento ottimale per massimizzare i risparmi sui costi previsti. Mentre i risparmi sui costi variano a seconda delle azioni, la strategia di apprendimento per rinforzo produce costantemente risultati positivi, con alcune azioni che mostrano risparmi sui costi significativamente più elevati rispetto ad altre.
La presentazione si conclude affrontando la necessità di sviluppare metodi di ottimizzazione avanzati e architetture di deep learning appositamente studiate per i dati finanziari. Sottolinea le sfide in corso nella fusione dell'apprendimento per rinforzo con simulazioni accurate per ordini di dimensioni maggiori per migliorare ulteriormente l'applicazione dell'apprendimento automatico nella finanza. Per cogliere efficacemente i concetti discussi, Ceriano consiglia di acquisire esperienza pratica implementando tecniche di apprendimento automatico su set di dati su larga scala. Sottolinea l'importanza di comprendere la teoria matematica sottostante e di avere competenza nelle librerie di deep learning come TensorFlow e PyTorch. Inoltre, vengono enfatizzate le capacità di calcolo ad alte prestazioni per la parallelizzazione dell'addestramento del modello.
Inoltre, i relatori discutono delle politiche di assunzione di Two Sigma e delle opportunità di lavoro a distanza. Sebbene non sia in atto una politica di lavoro a distanza a tempo pieno, Two Sigma assume persone da vari paesi in tutto il mondo e gestisce un team online chiamato Alpha Studio per il lavoro a distanza. Sottolineano l'importanza di acquisire conoscenze in finanza quantitativa, probabilità e statistica attraverso più corsi per coloro che sono interessati a perseguire l'apprendimento automatico nella finanza. La presentazione menziona anche l'utilizzo di librerie di deep learning come TensorFlow e PyTorch nel codebase di Two Sigma.
Viene discusso il processo di assunzione presso Two Sigma, con enfasi sul reclutamento che si svolge durante tutto l'anno, in particolare durante l'estate. Sono previste eccezioni per le assunzioni autunnali e primaverili e l'azienda incoraggia le persone interessate ad iniziare il prima possibile, anche se ciò significa iniziare a dicembre. I relatori suggeriscono che progetti straordinari implicano l'identificazione di modelli e tendenze nei dati reali e l'applicazione di approcci di apprendimento automatico per risolvere problemi del mondo reale. La proprietà del progetto e l'evidenziazione dei propri contributi all'interno del progetto sono sottolineate come qualità preziose ricercate dai selezionatori. Viene anche menzionato brevemente il team di ricerca sull'equità fondamentale di Two Sigma, che collabora a stretto contatto con ingegneri e data scientist.
Viene chiarita la distinzione tra un data scientist e un ricercatore quantistico presso Two Sigma. Sebbene entrambe le posizioni riguardino la modellazione e il trading, la scienza dei dati si concentra principalmente sull'aspetto della scienza dei dati e sull'ingegneria delle caratteristiche, mentre i ricercatori quantistici considerano il processo di trading completo dall'inizio alla fine. I relatori toccano la cultura dell'ufficio e le riunioni a Two Sigma, descrivendo le riunioni come principalmente informali e offrendo lavagne per discussioni collaborative. Occasionalmente sono necessarie presentazioni preparate per riunioni specifiche.
Infine, vengono evidenziati i vantaggi dell'utilizzo di un modello universale rispetto a modelli specifici per le azioni. La capacità del modello universale di sfruttare l'apprendimento del trasferimento e mitigare i problemi di overfitting è sottolineata come un vantaggio chiave. La presentazione si conclude menzionando che la sessione registrata sarà resa disponibile sul canale YouTube di Two Sigma e sottolineando le pratiche di assunzione globali dell'azienda, con la maggior parte delle assunzioni con sede negli Stati Uniti.
Le chiavi del successo nel trading algoritmico | Podcast | Dott. EP Chan
Le chiavi del successo nel trading algoritmico | Podcast | Dott. EP Chan
Il trading quantitativo, o il trading in generale, è considerato una delle professioni più impegnative in cui entrare e avere successo. Il Dr. DE Shaw, pioniere nel trading quantitativo e fondatore di un hedge fund multimiliardario a New York, lo ha riconosciuto il campo è diventato sempre più impegnativo ogni anno che passa. Questo sentimento è ripreso da molti trader esperti del settore.
Nonostante la sua difficoltà, vale ancora la pena perseguire il trading quantitativo per coloro che ne sono appassionati. Proprio come diventare un attore, cantante, modello o scrittore di narrativa di successo, raggiungere il successo nel trading algoritmico richiede dedizione e perseveranza. Anche se non tutti possono raggiungere il livello di rinomati trader come DE Shaw o Renaissance Technologies, gli aspiranti trader non dovrebbero scoraggiarsi. È importante essere preparati al fallimento poiché il successo in questo campo è un valore anomalo.
Per le persone che non sono già nel settore finanziario, è consigliabile non lasciare il lavoro quotidiano subito dopo la laurea e aver iniziato la loro prima strategia di trading. Si consiglia di avere almeno due strategie di trading redditizie attive per un periodo di due anni prima di considerare il trading a tempo pieno. Questo consiglio si basa sull'esperienza personale e sulle esperienze di altri trader di successo.
I trader spesso commettono l'errore di essere eccessivamente ottimisti sulla performance passata di una strategia, portandoli a sfruttare troppo in alto. È fondamentale evitare una leva finanziaria eccessiva, in quanto può rapidamente spazzare via il capitale di un conto. Inoltre, la performance della strategia di solito non continua ad avere lo stesso andamento. L'allocazione del capitale basata esclusivamente sulla performance passata è un errore comune. Invece, un'allocazione a parità di rischio, in cui il capitale è allocato in modo inversamente proporzionale alla volatilità di una strategia, è generalmente un approccio migliore.
Un altro errore comune è non riuscire a investire i profitti in apparecchiature dati e personale durante i periodi favorevoli. È essenziale reinvestire una parte dei profitti per migliorare l'infrastruttura dati e assumere personale qualificato, in quanto ciò può aiutare a prevenire futuri ribassi.
Una nota positiva, si consiglia di iniziare con strategie semplici che abbiano una giustificazione intuitiva. È saggio comprendere e migliorare le strategie esistenti prima di approfondire approcci più complessi come le reti neurali ricorrenti o il deep learning. Partendo da strategie semplici, i trader possono comprendere meglio le ragioni dietro i successi o gli insuccessi, attribuendole a fattori specifici.
In conclusione, il trading quantitativo è una professione impegnativa ma potenzialmente gratificante. Richiede perseveranza, apprendimento continuo e un attento processo decisionale. Mentre ci sono insidie da evitare, ci sono anche lezioni preziose da imparare da trader esperti. Iniziando con strategie semplici, gestendo il rischio e investendo in infrastrutture e personale, gli aspiranti trader possono aumentare le loro possibilità di successo nel campo del trading quantitativo.
"Arbitraggio statistico di base: comprendere la matematica dietro il trading di coppie" di Max Margenot
"Arbitraggio statistico di base: comprendere la matematica dietro il trading di coppie" di Max Margenot
Benvenuto al Quanto Peon Algorithmic Trading Meetup, un evento dedicato all'esplorazione del mondo della finanza quantitativa. Sono Max Margit, data scientist presso Quanto Peon, e oggi approfondirò l'affascinante argomento dell'arbitraggio statistico e i concetti statistici fondamentali ad esso associati.
Prima di immergerci negli aspetti teorici, lascia che ti fornisca una breve introduzione a Quanto Peon. Il nostro obiettivo principale è rendere la finanza quantitativa accessibile a tutti offrendo strumenti open source gratuiti che consentano alle persone di ricercare e sviluppare le proprie strategie di trading algoritmico. Il trading algoritmico prevede l'utilizzo di istruzioni per eseguire automaticamente operazioni nei mercati finanziari, che vanno da semplici regole come l'acquisto di azioni Apple ogni giorno alle 10:00 ad analisi quantitative più sofisticate utilizzando modelli statistici.
L'arbitraggio statistico, al centro della discussione odierna, ruota attorno allo sfruttamento delle inefficienze del mercato utilizzando l'analisi statistica invece di fare affidamento sugli squilibri fisici. Questo approccio mira a identificare e capitalizzare gli squilibri statistici nei prezzi delle attività. Per comprendere meglio questo concetto, è fondamentale comprendere alcuni concetti statistici fondamentali.
Uno dei concetti chiave che esploreremo è la stazionarietà, in particolare nel contesto dei dati delle serie temporali. La stazionarietà si riferisce a una serie di punti dati in cui ogni campione viene estratto dalla stessa distribuzione di probabilità con parametri coerenti nel tempo. In termini più semplici, significa che la media e la deviazione standard dei dati rimangono costanti nel tempo. Questo è importante perché molti modelli statistici utilizzati in finanza presuppongono la stazionarietà. Garantendo la stazionarietà, possiamo fidarci dei risultati ottenuti da questi modelli.
Per illustrare il concetto di stazionarietà, generiamo alcuni punti dati. Userò una funzione di base chiamata "generate_data_point" per creare un set di campioni da una distribuzione normale standard. Questi campioni rappresentano una serie temporale stazionaria spesso indicata come rumore bianco. In questo caso, la media è zero e la deviazione standard è uno. Quando tracciamo questi dati, osserviamo uno schema casuale simile al rumore bianco.
Tuttavia, non tutti i dati delle serie temporali mostrano stazionarietà. Se introduciamo un trend nella media, la serie temporale diventa non stazionaria. In finanza, la non stazionarietà può essere molto più complessa di questo semplice esempio. Le statistiche descrittive, come la media, diventano prive di significato per i dati non stazionari in quanto non rappresentano accuratamente l'intera serie temporale.
Ora, come determiniamo se una serie temporale è stazionaria o no? È qui che entrano in gioco i test di ipotesi, come il test di Dickey-Fuller aumentato comunemente usato nell'analisi di stazionarietà. Questo test ci aiuta a valutare la probabilità che una data serie temporale sia non stazionaria.
Applichiamo il test di Dickey-Fuller aumentato ai nostri dati di serie temporali generati. Il test fornisce un valore p, che indica la probabilità di rifiutare l'ipotesi nulla che la serie temporale non sia stazionaria. Nel nostro primo esempio, in cui i dati sono stati deliberatamente generati come stazionari, il p-value è vicino allo zero. Questo ci permette di rifiutare l'ipotesi nulla e concludere che la serie temporale è probabilmente stazionaria. D'altra parte, nel secondo esempio con la tendenza introdotta, il valore p supera la soglia (0,01) e non riusciamo a rifiutare l'ipotesi nulla, indicando che la serie temporale è probabilmente non stazionaria.
Tuttavia, è importante notare che i test di ipotesi hanno dei limiti. Possono verificarsi falsi positivi, specialmente quando si ha a che fare con relazioni sottili o complesse all'interno di dati finanziari. Pertanto, è essenziale esercitare cautela e non affidarsi esclusivamente a test di ipotesi per determinare la stazionarietà.
Ora spostiamo la nostra attenzione sul trading di coppie. Se voglio impegnarmi nel trading di coppie, devo considerare più coppie e piazzare scommesse indipendenti su ciascuna di esse. Invece di fare affidamento su una singola coppia, diversificare il mio portafoglio scambiando 100, 200 o anche 300 coppie mi consente di sfruttare qualsiasi vantaggio che posso avere in ciascuna coppia, aumentando così le mie possibilità complessive di successo.
Le coppie di trading richiedono un solido framework per gestire e monitorare le operazioni in modo efficace. Ciò comporta l'aggiornamento continuo della relazione tra le coppie e l'adeguamento delle posizioni di conseguenza. Poiché i valori beta, che rappresentano la relazione tra le coppie, possono cambiare nel tempo, ho bisogno di un sistema che si adatti dinamicamente a questi cambiamenti.
Inoltre, avere una chiara strategia di uscita per ogni operazione è fondamentale. Devo determinare quando chiudere una posizione se la coppia non mostra più il comportamento previsto o se la relazione tra le coppie si interrompe. Ciò richiede un monitoraggio costante dello spread e la presenza di criteri predefiniti per l'uscita da un'operazione.
Inoltre, la gestione del rischio gioca un ruolo significativo nel trading di coppie. È essenziale calcolare attentamente le dimensioni della posizione per ciascuna coppia in base a fattori quali volatilità, correlazione ed esposizione complessiva del portafoglio. Diversificando le mie operazioni e gestendo il rischio in modo efficace, posso ridurre al minimo l'impatto delle condizioni di mercato avverse e massimizzare i profitti potenziali.
Per implementare strategie di trading di coppie in modo efficace, i trader spesso si affidano a tecniche quantitative avanzate e sviluppano algoritmi sofisticati. Questi algoritmi scansionano automaticamente il mercato alla ricerca di potenziali coppie, valutano la loro cointegrazione e le proprietà statistiche e generano segnali di trading basati su criteri predefiniti.
In conclusione, la comprensione della stazionarietà e lo svolgimento di test appropriati sono fondamentali quando si costruiscono modelli statistici per il trading algoritmico. Afferrando il concetto di stazionarietà e utilizzando test come il test Dickey-Fuller aumentato, i trader possono valutare la probabilità di non stazionarietà nei dati delle serie temporali. Il pairs trading, come strategia di arbitraggio statistico, consente ai trader di sfruttare deviazioni temporanee dalla relazione storica tra due titoli correlati. Tuttavia, un'implementazione di successo richiede strutture solide, monitoraggio continuo, gestione del rischio e l'uso di tecniche quantitative avanzate.
In Quanto Peon, ci sforziamo di colmare il divario tra finanza e tecnologia offrendo lezioni gratuite su statistica e finanza attraverso la nostra serie di conferenze Quanto Peon. La nostra missione è democratizzare la finanza quantitativa e fornire alle persone gli strumenti e le conoscenze per sviluppare le loro strategie di trading algoritmico.
Moto browniana per la matematica finanziaria | Moto browniano per quanti | Calcolo stocastico
Moto browniana per la matematica finanziaria | Moto browniano per quanti | Calcolo stocastico
Ciao, YouTube, e bentornato sul canale ASX Portfolio. Mi chiamo Jonathan e oggi approfondiremo l'affascinante mondo del moto browniano, in particolare nel contesto della matematica finanziaria. Questo è un argomento cruciale in quanto costituisce il fondamento dei processi stocastici e del calcolo stocastico, che sono essenziali nel campo della matematica finanziaria. Il moto browniano è la base degli integrali di Ito e ha un grande significato, quindi comprenderlo è della massima importanza. Nei video futuri, esploreremo ulteriormente la matematica, coprendo argomenti come il moto browniano geometrico, le sue applicazioni e gli integrali di Ito. Assicurati di premere il pulsante Iscriviti se vuoi rimanere sintonizzato per quei video in arrivo.
In questo video, esamineremo un quaderno di Jupyter che ho preparato per spiegare cos'è il moto browniano e come si presenta. Quindi, entriamo subito. Inizieremo considerando un cammino aleatorio simmetrico e poi passeremo a un cammino aleatorio in scala, dimostrando come convergono al moto browniano. In questa spiegazione, useremo la notazione e gli esempi dal libro di Steven Shreve, "Stochastic Calculus for Finance II".
Innanzitutto, è fondamentale capire che le principali proprietà del moto browniano sono le seguenti: è una martingala, il che significa che l'aspettativa è basata esclusivamente sulla posizione corrente della particella o sul prezzo delle azioni. Inoltre, è un processo di Markov e accumula variazioni quadratiche. La variazione quadratica è un concetto unico nel calcolo stocastico, che lo distingue dal calcolo ordinario. In questo episodio, approfondiremo cosa comporta la variazione quadratica.
Se vuoi seguire il codice, è disponibile sul mio sito web. Ho importato le dipendenze necessarie di cui avremo bisogno per questa dimostrazione. È importante notare che il moto browniano è un processo stocastico e, per i nostri scopi, considereremo uno spazio di probabilità filtrato con risultati e un filtraggio F, insieme a uno spazio di probabilità P. Qui, abbiamo un insieme di risultati reali all'interno dell'intervallo da 0 a tempo T.
Il moto browniano ha sempre un valore iniziale pari a zero. Ha incrementi indipendenti, segue una distribuzione gaussiana e mostra quasi sicuramente percorsi campionari continui. Spiegheremo tutte queste proprietà in dettaglio.
Iniziamo con l'esempio più semplice: una passeggiata aleatoria simmetrica. Se non hai familiarità con il concetto di passeggiata casuale, pensala come una sequenza di lanci successivi di monete. Ogni risultato, rappresentato dalla variabile omega, può essere testa o croce. Useremo la variabile X_j per rappresentare ogni risultato, assumendo un valore di 1 per testa e -1 per croce.
Se definiamo un processo con m_0 uguale a zero, allora m_k sarà la sommatoria lungo tutti i possibili percorsi di lancio della moneta per k lanci. In questo caso, abbiamo una passeggiata casuale in cui il processo può salire di 1 o scendere di 1 e sommiamo questi incrementi sui percorsi. Ho scritto uno script per generare 10 percorsi di esempio su un orizzonte temporale di 10 anni. Il grafico mostra come la passeggiata casuale si sposta verso l'alto o verso il basso di 1 ad ogni passo lungo i percorsi.
Questo esempio rivela alcune proprietà interessanti. Innanzitutto, gli incrementi tra i periodi di tempo, come m_k+1 - m_k, sono indipendenti. Inoltre, l'aspettativa di questi incrementi indipendenti è zero e la varianza è uguale alla differenza di tempo o alla distanza tra i passi temporali (k_i+1 - k_i). La varianza si accumula al ritmo di uno per unità di tempo.
Inoltre, la passeggiata casuale simmetrica è una martingala. Ciò significa che l'aspettativa condizionale del valore successivo, data la posizione corrente, è uguale alla posizione corrente. Nel contesto di una passeggiata aleatoria simmetrica, l'aspettativa del
Continuando da dove ci eravamo interrotti, nel prossimo video esploreremo come creare campioni di moto browniano geometrico usando Python. Il moto browniano geometrico è un processo stocastico comunemente utilizzato nella matematica finanziaria per modellare i prezzi delle azioni. È un concetto essenziale da capire sul campo.
Ma prima di approfondire, ricapitoliamo alcune delle proprietà chiave del moto browniano. Il moto browniano è un processo stocastico caratterizzato da diverse proprietà:
Incrementi indipendenti: gli incrementi del moto browniano sono indipendenti, il che significa che il cambiamento tra due punti qualsiasi nel tempo non è correlato al cambiamento tra altri due punti.
Distribuzione gaussiana: gli incrementi del moto browniano seguono una distribuzione gaussiana o normale. Questa distribuzione descrive la probabilità di vari risultati ed è un concetto fondamentale nella teoria della probabilità.
Percorsi campione continui: il moto browniano ha percorsi campione continui, il che significa che non è differenziabile in ogni periodo di tempo. Questa proprietà lo rende adatto alla modellazione di vari fenomeni con fluttuazioni casuali.
Variazione quadratica: La variazione quadratica è una proprietà unica del moto browniano nel calcolo stocastico. Misura le fluttuazioni accumulate nel tempo ed è fondamentale per comprendere il comportamento dei processi stocastici.
Ora, discutiamo del moto browniano geometrico. Il moto browniano geometrico è un'estensione del moto browniano che incorpora la crescita esponenziale. È comunemente usato per modellare il comportamento di attività finanziarie come i prezzi delle azioni. Il moto browniano geometrico ha la seguente forma:
dS(t) = μS(t)dt + σS(t)dW(t)
Qui, S(t) rappresenta il prezzo dell'asset al tempo t, μ è il rendimento atteso o il tasso di deriva, σ è la volatilità o la deviazione standard dei rendimenti, dt è un piccolo intervallo di tempo e dW(t) è un moto browniano standard incremento.
Per simulare il moto browniano geometrico, possiamo discretizzare il processo usando metodi numerici come il metodo di Eulero o l'integrale di Itô. Questi metodi ci consentono di approssimare il processo continuo utilizzando una sequenza di passaggi discreti.
Nel prossimo video esploreremo i dettagli matematici del moto browniano geometrico e le sue applicazioni nella matematica finanziaria. Forniremo anche esempi pratici e frammenti di codice in Python per simulare e visualizzare il moto browniano geometrico.
Se sei interessato a saperne di più su questo argomento, assicurati di iscriverti al nostro canale e resta sintonizzato per il prossimo video. Non vediamo l'ora di condividere ulteriori approfondimenti con te. Grazie per l'attenzione e ci vediamo nel prossimo video!
Simulazione del moto browniano geometrico in Python | Calcolo stocastico per i quanti
Simulazione del moto browniano geometrico in Python | Calcolo stocastico per i quanti
Buona giornata, YouTube, e bentornati su ASX Portfolio Channel. Mi chiamo Jonathan e oggi simuleremo il moto browniano geometrico in Python. In questo tutorial, non esamineremo la derivazione della dinamica del moto browniano geometrico o tratteremo il calcolo di Ito, gli integrali di Ito ei processi stocastici. Tuttavia, esploreremo questi argomenti in dettaglio nel seguente tutorial. Se sei interessato a saperne di più su di loro, iscriviti al nostro canale e premi la campanella di notifica in modo da poter essere avvisato quando il video verrà rilasciato.
Passiamo alla simulazione. Userò questo notebook Jupyter a scopo dimostrativo. Innanzitutto, definiremo i parametri per la nostra simulazione. Il coefficiente di deriva, mu, è impostato su 0,1 o 10% su un anno. Definiremo il numero di passaggi temporali come "n" e lo imposteremo su 100 per una simulazione granulare. Il tempo sarà misurato in anni, indicato con "T". Il numero di simulazioni sarà indicato come "m" e impostato su 100. Il prezzo iniziale delle azioni, S0, è impostato su 100 e la volatilità, sigma, è impostata su 30. Importiamo le dipendenze necessarie: numpy as np e matplotlib .pyplot come plt.
Ora simuliamo i percorsi geometrici del movimento browniano. Per calcolare il passo temporale, dividiamo T per n. Successivamente, utilizzeremo gli array numpy per eseguire la simulazione in un unico passaggio invece di iterare sui percorsi. Definiremo un array chiamato "st" e useremo la funzione esponenziale di numpy. All'interno della funzione, definiremo le componenti: mu meno sigma al quadrato diviso per 2, moltiplicato per dt. Quindi, moltiplichiamo sigma per la funzione random.normal di numpy, che campiona dalla distribuzione normale, e la moltiplichiamo per la radice quadrata di dt. La dimensione di questo array sarà m per n, che rappresentano rispettivamente il numero di simulazioni e le fasi temporali. Dal momento che vogliamo la simulazione per ogni passo temporale, prenderemo la trasposizione di questo array.
Per includere il punto iniziale per ogni simulazione, useremo la funzione vstack di numpy per impilare un array numpy di quelli con l'array di simulazione st. Ciò assicurerà che ogni simulazione inizi con il valore iniziale. Infine, moltiplichiamo l'array in pila per il valore iniziale per tenere conto dei cambiamenti giornalieri in termini di deriva, varianza e componente stocastica. Questo ci darà le implementazioni del passo temporale. Per accumulare questi valori nel tempo, useremo la funzione del prodotto cumulativo di numpy lungo ogni percorso di simulazione, specificando l'asse 1. Questo calcolerà il prodotto cumulativo per ogni percorso.
Ora che abbiamo i percorsi simulati, consideriamo gli intervalli di tempo in anni. Useremo la funzione linspace di numpy per generare passi temporali uniformemente spaziati da 0 a T, con n+1 spazi. Questo ci darà un array chiamato "time". Successivamente, creeremo un array numpy chiamato "fill" con la stessa forma di st in modo da poter tracciare la funzione. Useremo la funzione completa di numpy e imposteremo fill_value su time. Prendendo la trasposizione di questo vettore, possiamo tracciare il grafico con gli anni lungo l'asse x e il prezzo dell'azione lungo l'asse y, tenendo conto della dispersione risultante dal 30% di volatilità e dal 10% di aumento della media o del drift over questo moto browniano geometrico.
Il moto browniano geometrico è un modello utile per la teoria dei prezzi delle opzioni e varie applicazioni di matematica finanziaria. Spero che tu abbia trovato valore in questo tutorial. Nel prossimo video, approfondiremo la matematica finanziaria, il calcolo di Ito, gli integrali di Ito ed esploreremo come aumentare la complessità delle equazioni differenziali stocastiche aggiungendo diversi parametri. Se vuoi saperne di più, assicurati di iscriverti al nostro canale e attiva la campanella di notifica in modo da poter essere avvisato quando quel video verrà rilasciato la prossima settimana. Fino ad allora, rimanete sintonizzati per contenuti più preziosi. Grazie per aver guardato e ci vediamo nel prossimo video.
Calcolo stocastico per i quanti | Comprensione del moto browniano geometrico utilizzando il calcolo di Itô
Calcolo stocastico per i quanti | Comprensione del moto browniano geometrico utilizzando il calcolo di Itô
Buon giorno, YouTube, e bentornato su ASX Portfolio. Oggi discuteremo perché il moto browniano è una scelta inappropriata per modellare i mercati finanziari. È abbastanza ovvio che il moto browniano comporterebbe prezzi azionari negativi, il che non è realistico. Invece, abbiamo bisogno di un modo per preservare alcune delle proprietà stocastiche del moto browniano e incorporarle nei nostri modelli. Ciò può essere ottenuto utilizzando i processi Ito, che ci consentono di aggiungere la fonte di rischio dal moto browniano.
Un noto processo di Ito è Geometric Brownian Motion (GBM), che molti di voi potrebbero conoscere. Possiamo sfruttare le proprietà del moto browniano per sviluppare nuovi modelli che si allineino meglio con esempi di vita reale. Per fare ciò, utilizziamo un tipo speciale di calcolo noto come calcolo di Ito, che è comunemente usato nella matematica stocastica finanziaria.
Oggi ci concentreremo sulla comprensione dell'integrale di Ito e su come può aiutarci a risolvere problemi complessi. Discuteremo il lemma di Ito, che funge da identità nel calcolo di Ito e aiuta nella derivazione delle regole. Inoltre, esploreremo la formula di Ito-Dobelin e la derivazione della dinamica del moto browniano geometrico.
Per approfondire questi concetti, consiglio vivamente il secondo libro di Stephen Shreve, "Continuous-Time Models for Stochastic Calculus". Il capitolo 4 copre il materiale di cui discuteremo oggi.
Ora, cominciamo col capire cos'è un integrale di Ito. È essenziale ricordare che tutta la matematica di cui parleremo si basa su uno spazio di probabilità filtrato. Questo spazio comprende i risultati, i filtri e le misure di probabilità. La filtrazione si riferisce a una sigma-algebra che contiene tutte le informazioni fino al tempo t. Sebbene la teoria della probabilità sia complessa, oggi ne parleremo solo brevemente. Per una comprensione più approfondita, consiglio di fare riferimento ai primi tre capitoli del libro di Shreve.
L'integrale di Ito è rappresentato dal simbolo ∫δdW, dove δ è un processo stocastico e dW è il processo di Wiener. Per coglierne il significato, immaginiamo di suddividere il periodo di tempo da 0 a T in piccoli intervalli. Possiamo denotare il processo stocastico δ alla potenza di n, dove n rappresenta il numero di intervalli di tempo. Questo processo è adattato, il che significa che i suoi valori sono determinati dai risultati dei lanci di monete ad ogni intervallo di tempo.
Ora, considera l'integrale come il limite di una somma quando il numero di intervalli si avvicina all'infinito. Ogni addizione consiste nel processo stocastico δ moltiplicato per la variazione del processo di Wiener tra gli intervalli. Man mano che gli intervalli diventano più piccoli, convergiamo sull'integrale di Ito. Tuttavia, affinché questo limite esista, devono essere soddisfatte due condizioni: il processo δ deve essere adattato alla filtrazione, e deve essere integrabile al quadrato.
Ora che abbiamo compreso la notazione, passiamo ai processi Ito generali. Questi processi si verificano nello stesso dominio del tempo con lo stesso spazio dei risultati. Coinvolgono integrali basati sul tempo e integrali di Ito rispetto al processo di Wiener. L'integrale basato sul tempo è simile a un normale integrale di Riemann, mentre l'integrale di Ito cattura la natura stocastica del processo. Questi processi possono essere suddivisi in termini di deriva e diffusione.
Un esempio di un processo Ito è Geometric Brownian Motion (GBM). Comprende un termine di deriva e un termine di diffusione. La deriva è determinata da una costante μ, mentre la diffusione è controllata da un parametro di volatilità σ. La dinamica di GBM può essere espressa utilizzando integrali, come mostrato nell'equazione.
Espandendo questo, possiamo anche considerare l'integrale di un processo Ito. Ad esempio, l'integrale del processo Ito può rappresentare il profitto e la perdita di negoziazione (P&L).
Nella decomposizione Itô-Doob, abbiamo questo processo generico rappresentato dall'integrale del termine di deriva, dall'integrale del termine di diffusione e dal termine integrale di Itô. Ora, la formula Itô-Doob fornisce un modo per calcolare il differenziale di una funzione del processo. Afferma che il differenziale della funzione è uguale alla derivata parziale della funzione rispetto al tempo, più le derivate parziali della funzione rispetto alle variabili di stato moltiplicate per i termini di deriva, più le derivate parziali della funzione rispetto alle variabili di stato moltiplicate per i termini di diffusione, più l'integrale delle derivate parziali della funzione rispetto alle variabili di stato moltiplicate per il termine integrale Itô.
Questa formula ci consente di calcolare la variazione del valore di una funzione mentre il processo evolve nel tempo. È uno strumento fondamentale nel calcolo Itô ed è ampiamente utilizzato nell'analisi stocastica e nella finanza matematica.
Passando al moto browniano geometrico (GBM), è un tipo specifico di processo Itô comunemente utilizzato per modellare la dinamica dei prezzi delle azioni e di altre attività finanziarie. GBM incorpora sia componenti di deriva che di diffusione. Il termine di deriva rappresenta il tasso di rendimento atteso sull'asset, mentre il termine di diffusione cattura la volatilità o la casualità nei movimenti di prezzo dell'asset.
La dinamica del GBM può essere derivata utilizzando il calcolo di Itô. Applicando la formula Itô al logaritmo del prezzo dell'asset, otteniamo un'espressione che descrive la variazione del logaritmo del prezzo nel tempo. Questo cambiamento è uguale al termine di deriva moltiplicato per l'incremento di tempo, più il termine di diffusione moltiplicato per l'integrale Itô. Esponenziando entrambi i lati dell'equazione, recuperiamo la dinamica del prezzo dell'asset stesso.
Comprendere le dinamiche di GBM è fondamentale nella determinazione del prezzo delle opzioni e nella gestione del rischio. Ci consente di modellare il comportamento stocastico dei prezzi delle attività e stimare le probabilità di vari risultati. Il GBM è stato ampiamente utilizzato nella matematica finanziaria ed è servito da base per molti modelli di prezzo, come il modello Black-Scholes per il prezzo delle opzioni.
In sintesi, il calcolo di Itô fornisce un potente framework per la modellazione e l'analisi dei processi stocastici in finanza. Incorporando gli integrali Itô e applicando il lemma di Itô e la formula Itô-Doob, possiamo derivare le dinamiche di varie variabili finanziarie e sviluppare modelli che catturino le proprietà stocastiche dei mercati del mondo reale. Itô calcolo ha rivoluzionato il campo della finanza matematica e continua ad essere uno strumento essenziale per comprendere e gestire il rischio finanziario.
Calcolo stocastico per i quanti | Determinazione del prezzo neutrale al rischio per i derivati | Spiegazione del prezzo delle opzioni
Calcolo stocastico per i quanti | Determinazione del prezzo neutrale al rischio per i derivati | Spiegazione del prezzo delle opzioni
In questo video, approfondiremo la matematica finanziaria alla base della valutazione di un derivato finanziario utilizzando la simulazione Monte Carlo e il prezzo neutrale al rischio. Risponderemo a domande come perché viene utilizzata la simulazione Monte Carlo, cos'è il prezzo neutrale al rischio e perché il tasso di crescita delle azioni non entra nel modello derivato.
Il prezzo neutrale al rischio è una metodologia in cui il valore di un'opzione è l'aspettativa scontata dei suoi guadagni futuri. In altre parole, è il valore atteso di tutti i possibili payoff di un derivato, attualizzati. Il tasso di crescita delle azioni sottostanti non influisce sul prezzo dell'opzione nel quadro dei prezzi neutrale al rischio. Questo perché il derivato e il titolo sottostante hanno una perfetta correlazione, consentendo la replica e la creazione di un portafoglio privo di rischio.
Ci sono diversi vantaggi nell'usare l'approccio di determinazione del prezzo neutrale al rischio rispetto ad altri metodi di valutazione. In primo luogo, con formulazioni derivate complesse, le soluzioni in forma chiusa potrebbero non essere fattibili. In tali casi, l'utilizzo di metodi di replica e la risoluzione di equazioni alle derivate parziali (PDE) può essere computazionalmente costoso. Il prezzo neutrale al rischio, d'altra parte, consente una facile approssimazione del valore dell'opzione utilizzando la simulazione Monte Carlo, che è meno costosa dal punto di vista computazionale.
Per spiegare il prezzo neutrale al rischio, iniziamo considerando il modello binomiale a un periodo. In questo modello, il titolo può salire o scendere e il valore dell'opzione dipende da questi due possibili risultati. Costruendo un portafoglio del titolo sottostante e un asset privo di rischio, possiamo replicare il payoff dell'opzione. Usando il principio di non arbitraggio, il valore dell'opzione al tempo zero deve essere uguale al valore del portafoglio al tempo zero. Risolvendo le equazioni lineari, possiamo ottenere una formula che rappresenta l'aspettativa scontata nel modello binomiale.
Introduciamo il concetto di misura di probabilità neutrale al rischio, indicata con q, che ci consente di passare dalle probabilità fisiche del prezzo delle azioni alle probabilità neutrali al rischio. Questo spostamento si ottiene riponderando le probabilità fisiche con una variabile casuale chiamata derivata casuale-nickdem. Questo derivato ci consente di tradurre il valore dell'opzione dal mondo dei prezzi neutrali al rischio al mondo della probabilità fisica.
L'obiettivo del prezzo neutrale al rischio è identificare il processo derivato random-nickdem, indicato come Zt, che garantisce che tutti i prezzi azionari scontati siano martingale sotto la misura di probabilità neutrale al rischio q. Eseguendo un cambio di misura, possiamo convertire il moto browniano originale sotto la misura di probabilità fisica in un nuovo moto browniano sotto la misura di probabilità neutrale al rischio. Questo nuovo moto browniano è un processo martingala, che indica che la sua aspettativa rimane costante nel tempo.
Per applicare questi concetti, consideriamo il modello geometrico del moto browniano, che rappresenta la dinamica di un'azione che non paga dividendi. Il modello si compone di una componente deterministica e di una componente stocastica, rappresentativa della volatilità. Tuttavia, le dinamiche azionarie originali non sono una martingala sotto le probabilità fisiche dovute alla componente deterministica. Per rendere la dinamica una martingala, introduciamo la derivata Radon-Nikodym, che rimuove il termine deriva e trasforma la dinamica del titolo in un processo martingala sotto la misura di probabilità neutrale al rischio.
In sintesi, la determinazione del prezzo neutrale al rischio e la simulazione Monte Carlo forniscono un quadro prezioso per la valutazione dei derivati finanziari. L'approccio di determinazione del prezzo neutrale rispetto al rischio offre vantaggi quali semplicità, efficienza computazionale e capacità di gestire strutture derivate complesse. Utilizzando la derivata random-nickdem e modificando la misura dalle probabilità fisiche alle probabilità neutrali al rischio, possiamo valutare accuratamente le derivate e replicare i loro guadagni in modo privo di rischio.
Trading di volatilità azionaria con il processo Ornstein-Uhlenbeck
Trading di volatilità azionaria con il processo Ornstein-Uhlenbeck
All'inizio del 2020, l'S&P 500 ha registrato un aumento significativo della volatilità a causa del forte calo dei prezzi. Nell'arco di un mese, l'indice è crollato di quasi mille punti. Allo stesso tempo, anche l'aspettativa di volatilità futura, basata sulle opzioni su indici negoziate, è aumentata durante questo periodo, raggiungendo un picco di 66. È diventato evidente che durante i periodi di volatilità del mercato, quando il valore dell'indice è diminuito, il VIX (Indice di volatilità) è aumentato. Il VIX funge da stima futura della volatilità. Questo fenomeno ha portato i market maker ei professionisti del trading a prevedere che la volatilità realizzata sarebbe persistita.
In questo video, miriamo a spiegare le caratteristiche di mercato della volatilità e discutere una metodologia per modellare la volatilità adattando la formula di Ornstein-Uhlenbeck a uno specifico indice di volatilità. Useremo il metodo di stima della massima verosimiglianza per calibrare i tre parametri del modello ai dati di mercato. Successivamente, simuleremo questo processo in Python, permettendoci di comprendere e analizzare le dinamiche della volatilità nel tempo.
Per fare ciò, importeremo varie dipendenze come time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader e la funzione plot_acf dal modulo stats. I dati che utilizzeremo sono i dati S&P 500 dal 2003 in poi. Per studiare il clustering della volatilità e le sue proprietà nelle serie temporali finanziarie, faremo riferimento al documento di ricerca "Volatility Clustering in Financial Markets" di Ramacant (2005), che esplora le proprietà statistiche delle serie temporali finanziarie. Le tre proprietà significative su cui ci concentreremo sono l'eccesso di volatilità, le code pesanti e il clustering della volatilità.
Il clustering della volatilità si riferisce all'osservazione che grandi cambiamenti nei prezzi tendono ad essere seguiti da altri grandi cambiamenti, indipendentemente dalla loro direzione, mentre piccoli cambiamenti sono spesso seguiti da piccoli cambiamenti. Questa manifestazione quantitativa suggerisce che sebbene i rendimenti possano essere non correlati, i rendimenti assoluti oi loro quadrati mostrano una piccola correlazione positiva che diminuisce gradualmente nel tempo. Per analizzarlo, esaminiamo i rendimenti logaritmici, che rappresentano il logaritmo delle variazioni di prezzo nel tempo. Esaminando visivamente i rendimenti logaritmici dell'S&P 500, possiamo osservare cluster di elevata entità durante periodi specifici, come i cluster significativi nel 2008-2009 e nel 2020.
Successivamente, valutiamo la correlazione tra i ritorni di log ritardati. In particolare, non troviamo alcuna autocorrelazione statisticamente significativa nei rendimenti dei log nell'intervallo di dati specificato. Tuttavia, quando equazioniamo il logaritmo tornando a focalizzarci sulla magnitudine assoluta, osserviamo una forte correlazione positiva che si estende anche a giorni e settimane ritardate. Ciò implica che durante i periodi di elevata volatilità è probabile che persista e durante i periodi di bassa volatilità è probabile che anche la tendenza continui. Questo fenomeno è noto come raggruppamento di volatilità.
Per visualizzare la volatilità continua in un numero specifico di giorni, selezioniamo una finestra di trading e calcoliamo la deviazione standard su quella finestra. Per annualizzare la volatilità, prendiamo la radice quadrata del numero di giorni di negoziazione in un anno, che in genere è 252. Questo approccio ci consente di osservare aumenti significativi della volatilità realizzata durante determinati periodi.
Per modellare questo processo di volatilità realizzata, ci rivolgiamo alla formula di Ornstein-Uhlenbeck. Questa formula, nota anche come modello di Vasicek in matematica finanziaria, considera tre parametri: kappa, che rappresenta il tasso di ritorno medio; theta, la volatilità media attorno alla quale oscillano i prezzi; e sigma, la volatilità stessa. Miriamo a trovare valori di parametro che massimizzino la probabilità che i dati osservati aderiscano a questa distribuzione.
Per raggiungere questo obiettivo, utilizziamo il metodo di stima della massima verosimiglianza (MLE), che si applica a campioni casuali e funzioni di densità di probabilità. Nel caso della distribuzione normale, la funzione di verosimiglianza è il prodotto delle singole probabilità campionarie dati i parametri. Prendendo il logaritmo della funzione di verosimiglianza, possiamo convertire
Ora che abbiamo derivato l'aspettativa e la varianza del processo di Ornstein-Uhlenbeck, possiamo procedere a modellare la volatilità utilizzando questo framework. Per fare ciò, calibreremo i parametri del modello in base ai dati di mercato utilizzando il metodo di stima della massima verosimiglianza (MLE).
Innanzitutto, importiamo le dipendenze necessarie, incluse librerie come time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader e la funzione plot_acf dal modulo stats. Importiamo anche i dati S&P 500 dal 2003, che serviranno come dati di mercato.
Successivamente, esploriamo il concetto di clustering della volatilità nelle serie temporali finanziarie. Il clustering della volatilità si riferisce al fenomeno in cui grandi cambiamenti nei prezzi tendono ad essere seguiti da altri grandi cambiamenti e piccoli cambiamenti tendono ad essere seguiti da piccoli cambiamenti. Osserviamo visivamente questo effetto di raggruppamento quando tracciamo i rendimenti logaritmici dell'S&P 500. Possiamo vedere che durante i periodi di volatilità del mercato, l'entità dei rendimenti logaritmici si raggruppa insieme, indicando una correlazione tra ampi movimenti di prezzo. Ad esempio, possiamo vedere i cluster durante la crisi finanziaria nel 2008-2009 e il picco di volatilità nel 2020.
Per quantificare la correlazione tra i rendimenti logaritmici, calcoliamo la funzione di autocorrelazione (ACF). Mentre i rendimenti logaritmici stessi non mostrano alcuna autocorrelazione significativa, i rendimenti logaritmici al quadrato (che rappresentano la grandezza assoluta) mostrano una piccola correlazione positiva che decade lentamente nel tempo. Questa autocorrelazione di grandezza assoluta conferma la presenza di volatility clustering, dove tendono a persistere periodi di alta volatilità, mentre tendono a persistere anche periodi di bassa volatilità.
Per analizzare ulteriormente la volatilità, calcoliamo la volatilità mobile su un numero specificato di giorni calcolando la deviazione standard e annualizzandola utilizzando la radice quadrata del numero di giorni di negoziazione in un anno. Tracciando la volatilità mobile, possiamo osservare periodi di maggiore volatilità, indicati da significativi rialzi della volatilità realizzata.
Ora introduciamo la formula di Ornstein-Uhlenbeck (OU), che viene utilizzata per modellare la volatilità. Il modello OU incorpora mean reversion, livello medio e volatilità intorno al prezzo medio. I parametri del modello includono kappa (tasso di reversione media), theta (livello medio) e sigma (volatilità). Per stimare questi parametri, applichiamo il metodo di stima della massima verosimiglianza (MLE), che comporta la ricerca dei valori dei parametri che massimizzano la probabilità che i dati osservati provengano dalla distribuzione OU.
Iniziamo discutendo la funzione di verosimiglianza, che è la funzione di densità di probabilità congiunta (pdf) dei dati osservati dati i parametri. Nel caso della distribuzione normale, la funzione di verosimiglianza è il prodotto dei singoli valori pdf. Prendere il logaritmo della funzione di verosimiglianza semplifica i calcoli, in quanto trasforma il prodotto delle probabilità nella somma dei logaritmi. Trovando lo stimatore di massima verosimiglianza (MLE) dei parametri, possiamo determinare i valori che massimizzano la verosimiglianza dei dati osservati.
Nel caso del processo UO, dobbiamo utilizzare metodi numerici per trovare le stime di massima verosimiglianza dovute alla non differenziabilità della funzione di verosimiglianza logaritmica. Utilizziamo la funzione scipy.optimize.minimize per minimizzare la probabilità logaritmica negativa, in quanto fornisce una soluzione numerica al problema di massimizzazione. Definendo la funzione di verosimiglianza, i parametri iniziali e i vincoli, possiamo stimare i parametri che massimizzano la verosimiglianza dei dati osservati.
Una volta stimati i parametri del processo OU, possiamo simulare il processo utilizzando Python. Possiamo simulare il processo discretizzando i passi temporali e ottenendo un percorso nel tempo o simulandolo come un processo Itô a tempo continuo. Quest'ultimo metodo fornisce una rappresentazione più accurata delle dinamiche di volatilità in momenti specifici.
In conclusione, il testo discute le caratteristiche di volatilità osservate nell'S&P 500 durante i periodi di volatilità del mercato. Introduce il concetto di clustering della volatilità e ne dimostra la presenza utilizzando i rendimenti logaritmici e i rendimenti logaritmici al quadrato. Il modello di Ornstein-Uhlenbeck (OU) viene quindi introdotto come framework per modellare la volatilità e viene utilizzato il metodo di stima della massima verosimiglianza (MLE) per stimare i parametri del modello. Infine, viene spiegata la simulazione del processo OU, consentendo l'analisi e la comprensione delle dinamiche di volatilità nel tempo.
La formula magica per il trading di opzioni senza rischi
La formula magica per il trading di opzioni senza rischi
In questo video imparerai come utilizzare la formula di Breeden-Litzenberger per derivare funzioni di densità di probabilità neutrali al rischio dai prezzi delle opzioni. Questa tecnica è estremamente utile quando il calcolo dei prezzi delle opzioni diventa dispendioso in termini di tempo e computazionalmente intensivo, specialmente per dinamiche complesse e scenari ad alta dimensione. La formula di Breeden-Litzenberger ci consente di calcolare derivate complesse una volta per diversi strike e valori di tempo alla scadenza, risultando in una funzione di distribuzione di probabilità neutrale al rischio che semplifica il calcolo di vari derivati complessi.
Per iniziare, comprendiamo il concetto di probabilità neutrale al rischio. L'analisi di Feynman-Kac ci consente di definire la probabilità neutrale al rischio come una misura (Q) della probabilità neutrale al rischio terminale al tempo (t). La funzione di distribuzione di probabilità cumulativa (F) rappresenta la distribuzione di probabilità neutrale al rischio. Il prezzo di un'opzione call europea al tempo (t) con uno strike (k) e il tempo alla scadenza (tau) può essere fatto prendendo l'aspettativa scontata neutrale al rischio del payoff. Questo può essere espresso come l'integrale di (S_t - k) moltiplicato per la funzione di densità neutrale al rischio (pdf) tra lo strike (k) e l'infinito, scontato per il tasso privo di rischio.
Per calcolare la probabilità neutrale al rischio direttamente da questa formula, possiamo utilizzare la formula di Breeden-Litzenberger del 1978. Essa afferma che la derivata prima dell'integrale rispetto allo strike (k) è uguale a meno il fattore di sconto esponenziale moltiplicato per (1 - F), dove F è la funzione di densità cumulativa. La derivata seconda dell'integrale centrato sullo strike (k) estrae la pdf, che è il fattore di sconto moltiplicato per la pdf neutrale al rischio.
Ora, discutiamo su come applicare questa formula in Python. Dobbiamo importare librerie come NumPy, SciPy, Pandas e Matplotlib. Ad esempio, considereremo un'opzione call europea con volatilità stocastica secondo il modello Heston. Il modello Heston fornisce la dinamica dell'asset sottostante e la sua volatilità. Inizializziamo i parametri necessari, come il prezzo delle azioni, lo strike, il tempo alla scadenza, il tasso privo di rischio e i parametri del modello Heston come il tasso di ritorno medio, la varianza a lungo termine, la volatilità iniziale, la correlazione e la volatilità della volatilità.
Utilizzando la formula di Breeden-Litzenberger, possiamo determinare la funzione di distribuzione di probabilità neutrale al rischio. Approssimando la derivata seconda usando l'approssimazione alle differenze finite, calcoliamo la distribuzione neutrale al rischio per i diversi valori strike e time-to-maturity. Costruiamo un pdf 2D per un particolare tempo di scadenza.
Per calcolare i prezzi delle opzioni secondo il modello Heston, utilizziamo la funzione caratteristica ed eseguiamo l'integrazione numerica utilizzando l'integrazione rettangolare. Definiamo la funzione caratteristica e calcoliamo l'integrale complesso su un dominio specificato usando l'integrazione rettangolare. La dimensione del passo scelta per l'integrazione influisce sulla precisione, in particolare per le opzioni out-of-the-money.
Confrontiamo i risultati ottenuti utilizzando l'integrazione rettangolare con la libreria QuantLib, che è implementata in C e fornisce un'integrazione numerica più accurata. Sebbene ci siano alcune differenze tra i due approcci, l'errore quadratico medio (MSE) è piccolo. Le discrepanze sono principalmente dovute a errori di arrotondamento causati dalla rappresentazione binaria dei valori decimali in Python.
Dopo aver ottenuto il pdf approssimativo discreto, lo moltiplichiamo per il fattore forward. Utilizziamo l'interpolazione per appianare la curva e creare una funzione di distribuzione continua neutrale al rischio. Infine, possiamo utilizzare questa distribuzione neutrale al rischio per prezzare facilmente vari derivati complessi.
In conclusione, la formula di Breeden-Litzenberger ci consente di derivare funzioni di densità di probabilità neutrali al rischio dai prezzi delle opzioni. Approssimando la derivata seconda usando l'approssimazione alle differenze finite ed eseguendo l'integrazione numerica, possiamo calcolare la distribuzione neutrale al rischio per diversi strike e valori di tempo alla scadenza. Questo ci consente di prezzare derivati complessi in modo efficiente.