Commercio quantitativo - pagina 8

 

Rama Cont e Francesco Capponi: "Cross-Impact sui mercati azionari"



Rama Cont e Francesco Capponi: "Cross-Impact sui mercati azionari"

Rama Cont e Francesco Capponi approfondiscono il concetto di impatto incrociato nei mercati azionari attraverso la loro analisi del flusso degli ordini e dei dati sui prezzi. Affermano che l'impatto incrociato significa che il prezzo di un asset è influenzato non solo dal proprio flusso di ordini ma anche dal flusso di ordini di altri asset. Mentre precedenti studi teorici hanno tentato di derivare le conseguenze degli effetti di impatto incrociato ed estendere i modelli di esecuzione ottimale degli scambi di un singolo asset a più asset, Cont e Capponi propongono un approccio più snello per spiegare le correlazioni tra i rendimenti degli asset e il flusso degli ordini.

Sostengono che una matrice completa dei coefficienti di impatto dei prezzi non è necessaria per tenere conto di queste correlazioni. Sostengono invece che le correlazioni osservate possono essere attribuite al fatto che i partecipanti al mercato spesso si impegnano a negoziare più attività, generando in tal modo squilibri del flusso di ordini correlati tra le attività. Per identificare la significatività dei coefficienti di impatto incrociato ei principali driver dei costi di esecuzione, i relatori suggeriscono di utilizzare un'analisi delle componenti principali (PCA) sulle matrici di correlazione dei rendimenti e degli squilibri del flusso degli ordini.

Cont e Capponi propongono un modello parsimonioso per l'impatto incrociato nei mercati azionari, concentrandosi sull'equilibrio del flusso degli ordini di un titolo e sulla correlazione degli squilibri del flusso degli ordini. Scoprono che un modello a un fattore per lo squilibrio del flusso degli ordini è sufficiente per spiegare le correlazioni incrociate dei rendimenti. Questo modello può essere utilizzato per l'esecuzione del portafoglio e l'analisi dei costi di transazione, con i relatori che raccomandano l'uso di un modello affidabile per l'impatto di un singolo asset abbinato a un buon modello per i fattori comuni nel flusso degli ordini tra gli asset.

I relatori sottolineano l'importanza di stabilire un modello causale e un'interpretazione per l'equazione. Esprimono la loro disponibilità a condividere ulteriori materiali e aggiornamenti, sottolineando il loro impegno a promuovere la comprensione in quest'area di ricerca.

  • 00:00:00 In questa sezione del video, Rama Cont e Francesco Capponi discutono del concetto di cross-impact nei mercati azionari. Indagano su questo concetto analizzando il flusso degli ordini e i dati sui prezzi dei mercati azionari e spiegano che l'impatto del mercato, o l'esecuzione di operazioni che spostano il prezzo di un asset, contribuisce al costo di esecuzione. Mostrano inoltre che i movimenti dei prezzi sono guidati dallo squilibrio aggregato tra domanda e offerta e definiscono la nozione di squilibrio del flusso degli ordini come uno strumento utile per costruire modelli di impatto.

  • 00:05:00 In questa sezione, Rama Cont e Francesco Capponi discutono dell'impatto lineare dello squilibrio del flusso degli ordini nei mercati con portafoglio ordini centralizzato. Questo squilibrio aggregato tra domanda e offerta è ciò che determina il prezzo, che può essere visto come un modello di regressione con il coefficiente di impatto che riflette la nozione opposta di liquidità. Il coefficiente ha una relazione inversa altamente correlata con la profondità del portafoglio ordini e l'estrazione del coefficiente di impatto può essere effettuata attraverso un calcolo di covarianza. Mentre lo studio è stato precedentemente condotto per singoli titoli, i partecipanti al mercato sono interessati anche alle correlazioni tra più asset e sono state trovate correlazioni positive tra lo squilibrio del flusso degli ordini e i rendimenti su diversi titoli.

  • 00:10:00 In questa sezione, Rama Cont e Francesco Capponi discutono il concetto di cross-impact ei suoi studi teorici ed empirici. Spiegano che l'impatto incrociato si riferisce al fatto che il prezzo di un asset non è influenzato esclusivamente dal proprio flusso di ordini ma anche dal flusso di ordini di altri asset. Studi empirici hanno documentato una correlazione positiva tra il flusso degli ordini di un asset ei movimenti di prezzo di un altro asset, almeno nella classe di asset omogenea. Studi teorici hanno cercato di derivare le conseguenze di tali effetti di impatto incrociato e hanno esteso il modello per l'esecuzione ottimale delle negoziazioni di un singolo asset a più asset in cui il modello include effetti di impatto incrociato. Tuttavia, ciò porta a un gran numero di coefficienti di impatto incrociato che devono essere stimati.

  • 00:15:00 In questa sezione, i relatori discutono il concetto di impatto incrociato e la sua rilevanza nello spiegare i fenomeni di mercato osservabili. Si chiedono se sia necessaria una matrice completa di coefficienti di impatto dei prezzi per spiegare le correlazioni tra i rendimenti degli asset e il flusso degli ordini in un mercato e se sia possibile un approccio più parsimonioso. Tracciano anche analogie con l'azione a distanza in fisica e discutono la necessità di un meccanismo sottostante che colleghi insieme le risorse al fine di stabilire l'impatto causale. L'obiettivo è progettare un modello di impatto multi-asset che includa solo i coefficienti necessari ed eviti inutili complessità.

  • 00:20:00 In questa sezione, i relatori sostengono che il concetto di impatto incrociato non è necessario per spiegare le co-variazioni nei movimenti dei prezzi e lo squilibrio del flusso degli ordini osservato nei mercati azionari. Le correlazioni osservate possono essere spiegate dal fatto che i partecipanti al mercato spesso negoziano più asset generando squilibri correlati nel flusso degli ordini tra gli asset, che a loro volta portano a correlazioni nei rendimenti di diversi asset. I relatori presentano un diagramma del modello causale che mostra che il prezzo di un asset è guidato dallo squilibrio del flusso degli ordini, che è la somma algebrica di tutti gli ordini di acquisto e vendita generati da entità e strategie di trading multi-asset. Sostengono che il modello di impatto del singolo asset è sufficiente per spiegare queste correlazioni e non è necessario alcun modello di impatto incrociato aggiuntivo.

  • 00:25:00 In questa sezione, la visione tradizionale della domanda e dell'offerta che guidano il prezzo di ciascun asset, creando correlazioni nel saldo del flusso degli ordini, viene confrontata con il modello a impatto incrociato che postula un meccanismo che influenza il rendimento di un titolo dalla distanza. Queste ipotesi possono essere verificate con i dati disponibili sul flusso degli ordini e sui resi condizionando le variabili nel diagramma ed eseguendo regressioni condizionali. Viene discussa la costruzione dei modelli di impatto per asset multipli e il problema di identificazione intrinseco che essa pone. Un modello lineare con due variabili, rendimenti e OFI, viene utilizzato per creare matrici di coefficienti theta e beta. Il flusso netto degli ordini per un'azione è definito come l'afflusso alla coda delle offerte meno il deflusso dalla coda delle domande.

  • 00:30:00 In questa sezione, Rama Cont e Francesco Capponi discutono della covarianza dei rendimenti con lo squilibrio del flusso degli ordini e di come si correla alla matrice beta e all'impatto incrociato. Sottolineano che non è necessario disporre di elementi fuori diagonale in beta per ottenere elementi fuori diagonale nella matrice di covarianza, poiché la covarianza può provenire dalla correlazione dei flussi di ordine o dalla matrice di impatto incrociato. L'esempio di due titoli senza correlazione nei flussi degli ordini ma con coefficienti di impatto incrociato evidenzia l'importanza di conoscere la correlazione dei flussi degli ordini per identificare il coefficiente di impatto incrociato. La matrice di covarianza è influenzata dai coefficienti di correlazione e di impatto incrociato nel modello, che possono essere osservati con i numeri in diversi scenari.

  • 00:35:00 In questa sezione, Rama Cont e Francesco Capponi discutono della differenza tra modellare la correlazione e il flusso degli ordini tra le azioni e comprendere l'impatto incrociato e modellarlo. Spiegano che la semplice osservazione di una correlazione diversa da zero tra il flusso degli ordini di un asset e il rendimento di un altro asset non implica la necessità di un coefficiente di impatto incrociato diverso da zero nel modello. Presentano anche esempi di bassa correlazione e flusso di ordini, alto impatto incrociato e viceversa per dimostrare che è impossibile dedurre l'impatto incrociato solo da queste covarianze. Infine, discutono i dati che hanno analizzato, che include il flusso netto degli ordini, gli squilibri del flusso degli ordini e i rendimenti di 67 titoli dal NASDAQ 100 in due anni e mezzo, e spiegano come hanno ridefinito e normalizzato i rendimenti e gli squilibri del flusso degli ordini.

  • 00:40:00 In questa sezione del video, i relatori esaminano la relazione tra la correlazione dei rendimenti azionari e gli squilibri del flusso degli ordini di diversi titoli. Tracciando la correlazione dei rendimenti azionari rispetto agli squilibri del flusso degli ordini di altri titoli, i relatori dimostrano che la stragrande maggioranza delle coppie di azioni ha una correlazione molto vicina all'uguaglianza, suggerendo che la correlazione tra rendimenti e squilibri del flusso degli ordini potrebbe essere semplicemente dovuta al correlazione tra i diversi saldi. Per verificare se sia necessario un modello di impatto di mercato multivariato, i relatori utilizzano un'analisi di regressione e scoprono che i coefficienti di impatto incrociato sono molto vicini allo zero, indicando che anche se fossero identificabili, hanno solo un impatto minimo sull'impatto totale.

  • 00:45:00 In questa sezione, Rama Cont e Francesco Capponi propongono un approccio diverso per identificare la significatività dei coefficienti di impatto incrociato ei principali driver dei costi di esecuzione. Suggeriscono di utilizzare un'analisi delle componenti principali (PCA) sulle matrici di correlazione dei rendimenti e dell'equilibrio del flusso degli ordini e di utilizzare un modello fattoriale per lo squilibrio del flusso degli ordini. Il primo componente principale del modello fattoriale viene utilizzato per testare la significatività residua di qualsiasi coefficiente di impatto incrociato e il residuo della regressione viene interpretato come il flusso dell'ordine idiosincratico dovuto solo all'azione in quello stock. L'approccio mira a districare il contributo della componente idiosincratica del flusso di ordini di un titolo dalla componente comune dovuta al cross trading.

  • 00:50:00 In questa sezione del video, Rama Cont e Francesco Capponi discutono della correlazione tra le prime componenti principali dei rendimenti e i saldi del flusso degli ordini degli ETF che replicano il Nasdaq 100 e l'S&P 500. Scoprono che la prima componente principale di return ha una correlazione del 91% con il rendimento complessivo dell'ETF che replica il Nasdaq 100. Allo stesso modo, la prima componente principale del saldo del flusso degli ordini ha una correlazione dell'82% con il saldo del flusso degli ordini sull'ETF QQQ che replica lo stesso indice . Osservano inoltre che le prime componenti principali sia dei rendimenti che dello squilibrio del flusso degli ordini sono correlate al movimento complessivo del mercato. Questo li porta a spiegare il loro approccio in due fasi per eliminare gli elementi comuni nel flusso degli ordini e migliorare i rendimenti.

  • 00:55:00 In questa sezione, Rama Cont e Francesco Capponi discutono dell'impatto incrociato nei mercati azionari, che si riferisce a come lo squilibrio del flusso degli ordini di un titolo e la comunanza del flusso degli ordini tra i titoli influiscano sul rendimento di un titolo. Mostrano che il coefficiente di autoimpatto è una delle principali determinanti del rendimento di un titolo, mentre il coefficiente di impatto incrociato è molto piccolo e quasi tutti diventano negativi una volta presa in considerazione la componente principale. Quindi testano quanto i termini di impatto incrociato contribuiscono a spiegare il costo di esecuzione dei rendimenti e valutano se sono statisticamente ed economicamente significativi, mettendo in discussione anche la loro stabilità nel tempo.

  • 01:00:00 In questa sezione, Rama Cont e Francesco Capponi discutono dell'impatto del cross-impact e della sua importanza nei mercati azionari. Concludono che mentre le statistiche possono essere significative, economicamente, la grandezza è piccola e non c'è quasi alcuna differenza distinguibile nel potere esplicativo quando si includono tutti gli altri squilibri del flusso di ordine nella regressione. Sostengono per un modo più parsimonioso di modellare l'impatto e suggeriscono di utilizzare solo il saldo del flusso degli ordini di un titolo e la correlazione degli squilibri del flusso degli ordini per modellare l'impatto. Sottolineano inoltre l'importanza della stabilità nel tempo e analizzano i sottocampioni per garantire che i coefficienti di impatto incrociato siano stabili.

  • 01:05:00 In questa sezione, Rama Cont e Francesco Capponi riassumono le loro conclusioni sui modelli a impatto incrociato nei mercati azionari. Sostengono che il fenomeno della covariazione positiva tra i rendimenti e l'equilibrio del flusso degli ordini tra diversi titoli può essere spiegato senza introdurre modelli ad alta dimensione con molti coefficienti. Un semplice modello a un fattore per il flusso degli ordini in squilibrio è sufficiente a spiegare questi modelli di correlazioni incrociate dei rendimenti. Suggeriscono che un approccio migliore alla creazione di modelli di impatto multi-asset sia quello di concentrarsi sulla costruzione di modelli di fattori comuni nel flusso degli ordini, come un modello a fattori lineari o un'analisi delle componenti principali del flusso degli ordini. L'implementazione di un modello di impatto a singolo asset che mette in relazione il flusso degli ordini con il proprio rendimento è sufficiente per spiegare l'ampiezza del costo di esecuzione nell'esecuzione del portafoglio.

  • 01:10:00 In questa sezione, Rama Cont e Francesco Capponi discutono le applicazioni pratiche del loro modello, in particolare nel contesto dell'esecuzione del portafoglio e dell'analisi dei costi di transazione (TCA). Il modello consente la quantificazione dei costi di esecuzione, tenendo conto della comunanza nei flussi di ordini tra le attività. La differenza nei costi di esecuzione tra un singolo asset e un portafoglio è legata al fattore di comunanza. Il modello può essere utilizzato per misurare i costi di esecuzione a livello di portafoglio e aiuta a comprendere meglio l'impatto dei portafogli di trading. Suggeriscono di utilizzare un buon modello per l'impatto di una singola risorsa insieme a un buon modello per i fattori comuni nel flusso dell'ordine tra le risorse.

  • 01:15:00 In questa sezione, i relatori discutono l'uso della prima componente principale dei rendimenti nell'equazione 12. Notano che esiste un'alta correlazione tra l'uso della componente principale di OFI e l'uso dei rendimenti, ma sostengono che volevano seguire la loro analisi causale e modellare la comunanza in modo che gli squilibri spieghino i rendimenti. Sottolineano l'importanza di avere un modello causale e un'interpretazione per l'equazione. I relatori ringraziano il pubblico per l'attenzione ed esprimono la disponibilità a condividere ulteriori materiali e aggiornamenti.
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
  • 2020.10.13
  • www.youtube.com
Title: "Cross-Impact in Equity Markets" Joint Work with Francesco CapponiAbstract: The empirical finding that market movements in stock prices may be correl...
 

Adam Grealish: "Un approccio algoritmico agli investimenti personali"



Adam Grealish: "Un approccio algoritmico agli investimenti personali"

Adam Grealish, Director of Investing at Betterment, fornisce approfondimenti sull'approccio algoritmico dell'azienda agli investimenti personali e sulla sua strategia basata sugli obiettivi. Betterment utilizza un modello di robo-advisory, sfruttando algoritmi e un intervento umano minimo per fornire consulenza e gestione degli investimenti ai propri clienti.

Grealish evidenzia tre fattori chiave che determinano i risultati degli investimenti: mantenere bassi i costi, ottimizzazione fiscale e trading intelligente. Sebbene tutti i fattori siano importanti, Betterment pone una forte enfasi sui primi tre. L'azienda impiega la tecnica di ottimizzazione Black Litterman per costruire portafogli diversificati a livello globale e monitora continuamente i pesi target attraverso la sua vasta base di clienti di mezzo milione di individui. L'ottimizzazione fiscale, comprese strategie come la riscossione delle perdite fiscali, l'ubicazione delle risorse e l'ordinamento dei lotti, offre opportunità per sovraperformare il mercato.

Nella seconda parte della sua discussione, Grealish distingue l'approccio di Betterment dai tradizionali consulenti finanziari automatizzati. A differenza dell'approccio "taglia unica" dei robo-advisor tradizionali, l'approccio algoritmico di Betterment considera fattori individuali come obiettivi, orizzonte temporale e tolleranza al rischio. Questa personalizzazione consente portafogli personalizzati su misura per la situazione unica di ciascun investitore. Betterment offre anche funzionalità aggiuntive come la riscossione delle perdite fiscali e portafogli coordinati dalle tasse per massimizzare l'efficienza fiscale e aumentare i rendimenti.

Grealish approfondisce ulteriormente le specifiche delle strategie di investimento di Betterment. La società incoraggia la stabilità dell'allocazione a lungo termine, adeguando i portafogli solo una volta all'anno per avvicinarsi all'allocazione target. Utilizzano algoritmi di ribilanciamento basati su trigger per gestire la deviazione dall'allocazione target e ridurre al minimo i rischi. I portafogli di Betterment sono costruiti utilizzando ampi ETF basati sulla capitalizzazione di mercato, ottimizzando l'esposizione a classi di attività rischiose con premi di rischio associati.

L'ottimizzazione dei costi è un aspetto significativo della filosofia di investimento di Betterment. La società sfrutta la tendenza alla diminuzione delle commissioni sugli ETF, rivedendo l'intero universo degli ETF su base trimestrale. Il processo di selezione prende in considerazione fattori oltre il rapporto di spesa, inclusi il tracking error e i costi di negoziazione, risultando in portafogli a basso costo per i clienti di Betterment.

L'ottimizzazione fiscale è un altro elemento cruciale della strategia di Betterment. Grealish spiega l'importanza della gestione fiscale e delinea tre strategie efficaci: riscossione delle perdite fiscali, localizzazione delle risorse e smistamento dei lotti. La raccolta delle perdite fiscali comporta la vendita di titoli in perdita per realizzare minusvalenze a fini fiscali, mentre l'ubicazione delle attività massimizza i rendimenti al netto delle imposte allocando strategicamente le attività tra i conti. Lo smistamento dei lotti comporta la vendita dei lotti con le perdite maggiori per ottimizzare i benefici fiscali.

Grealish riconosce l'impatto del comportamento degli investitori sui risultati degli investimenti. Il miglioramento combatte il comportamento negativo implementando impostazioni predefinite intelligenti, utilizzando l'automazione e incoraggiando gli investimenti basati sugli obiettivi. L'azienda utilizza la progettazione intenzionale e l'analisi dei dati per indurre gli utenti ad agire quando si discostano dai loro obiettivi finanziari.

In termini di sviluppi futuri, Grealish discute i potenziali usi dell'IA nello spazio fintech. Betterment sta esplorando le applicazioni di intelligenza artificiale per automatizzare attività finanziarie come la consulenza robotica e la gestione della liquidità. L'azienda mira a rendere i servizi finanziari che in precedenza erano limitati a individui e istituzioni facoltosi accessibili a un pubblico più ampio. Tuttavia, la complessità dell'individualizzazione della preparazione fiscale pone delle sfide in questo settore.

Nel complesso, Adam Grealish fornisce preziose informazioni sull'approccio algoritmico di Betterment agli investimenti personali, sottolineando le strategie basate sugli obiettivi, l'ottimizzazione dei costi, la gestione fiscale e la mitigazione del comportamento.

  • 00:00:00 Adam Grealish presenta Betterment, una piattaforma online automatizzata di consulenza sugli investimenti che utilizza un approccio basato sugli obiettivi per la gestione degli investimenti. Il suo obiettivo è fornire rendimenti elevati ai clienti attraverso strategie di investimento ottimali. Betterment ha un'attività diretta al cliente, una piattaforma tecnologica white label per consulenti finanziari e un'attività 401k. Il termine "roboadvisor" descrive accuratamente l'approccio di Betterment in quanto fornisce consulenza finanziaria digitale attraverso algoritmi eseguiti da software con un intervento umano minimo.

  • 00:05:00 Adam Grealish, direttore di Investing for Betterment, spiega il loro approccio agli investimenti, che si basa su algoritmi e modelli matematici. La piattaforma Betterment offre un'esperienza di gestione degli investimenti completamente diretta senza la necessità di interazione umana, nonché l'accesso a consulenti umani per coloro che lo desiderano. Secondo Grealish, i fattori chiave che determinano i risultati degli investimenti sono il mantenimento dei costi bassi, l'ottimizzazione fiscale, il trading intelligente, l'asset allocation e la selezione dei titoli. Tuttavia, Betterment si concentra principalmente sui primi tre in quanto sono considerati i più deterministici nel raggiungimento degli obiettivi finanziari, ponendo meno enfasi sull'asset allocation e sulla selezione dei titoli. Usano la tecnica di ottimizzazione Black Litterman per creare un portafoglio diversificato a livello globale e ottenere il rendimento ottimale per i loro investitori.

  • 00:10:00 In questa sezione, Adam Grealish spiega come aiutano gli investitori a scegliere il rischio da assumere in base a specifici obiettivi di investimento e orizzonti temporali. L'app fornisce consigli su quanto rischio correre, con proiezioni su come potrebbe apparire nel tempo. Gestiscono quindi i pesi target attraverso il monitoraggio quotidiano, facendolo su mezzo milione di clienti con un massimo di 800.000 singoli portafogli monitorati su base giornaliera. Il ribilanciamento è visto principalmente come uno strumento di gestione del rischio e viene eseguito in modo efficiente dal punto di vista fiscale quando si verificano flussi di cassa, quando vengono pagati dividendi o quando si prelevano commissioni dal conto. Grealish discute un documento di Bushi (2012) che evidenzia i vantaggi del ribilanciamento di un portafoglio con titoli non correlati nel tempo. Infine, differenziano gli obiettivi in base ai profili di liquidazione e costruiscono un percorso di discesa basato sulla lunghezza dell'orizzonte.

  • 00:15:00 Adam spiega come funziona il loro approccio algoritmico agli investimenti personali. Incoraggiano gli investitori a mantenere la loro allocazione per lungo tempo, adeguandola solo una volta all'anno, per avvicinarsi all'allocazione target. Il team adegua l'allocazione target dei propri clienti su base mensile, il che consente ai dollari marginali di avvicinarsi all'obiettivo di rischio corretto senza dover eseguire operazioni di ribilanciamento che comportano rischi potenziali. I loro portafogli sono interamente basati su ETF basati su un'ampia capitalizzazione di mercato e ottimizzano la loro esposizione a classi di attività rischiose con un premio per il rischio ad esse associato. Il team utilizza un algoritmo di ribilanciamento basato su trigger che misura la deriva da un'allocazione target e, quando si allontana troppo, ribilancia, gestendo il rischio. Infine, Grealish osserva che c'è una grande disconnessione tra le persone che sanno molto di finanza e che sanno molto di finanza personale.

  • 00:20:00 In questa sezione, Adam Grealish discute la tendenza alla diminuzione delle commissioni sugli ETF, che è stata vantaggiosa per Betterment in quanto è una società di robo-advisor indipendente che non è legata a nessuna singola famiglia di fondi. Betterment ha un processo di selezione dei fondi trimestrale in cui viene rivisto l'intero universo investibile degli ETF e sono classificati non solo in base al loro rapporto di spesa ma anche in base ad altri fattori come il tracking error e i costi di negoziazione. Il miglioramento si concentra sul costo annuo totale di proprietà o sul "punteggio taco", che è determinato dal costo di mantenimento, dal costo di negoziazione e da altri fattori. Il processo si traduce in un portafoglio a basso costo per il miglioramento.

  • 00:25:00 In questa sezione del video, Adam Grealish discute vari aspetti dell'approccio agli investimenti di Wealthfront. Spiega che i loro rendimenti attesi sono generati attraverso l'ottimizzazione inversa dal cap m e utilizzano un motore di simulazione Monte Carlo che opera a livello di lotti fiscali per testare le loro strategie fiscali. Grealish osserva inoltre che disintermediare l'industria dei fondi detenendo singoli titoli è un'idea interessante che può portare a maggiori opportunità di raccolta fiscale e personalizzazione, ma ha costi operativi associati. Inoltre, spiega come Wealthfront soppesa i costi per detenere e scambiare investimenti per fornire una misura accurata del loro costo totale.

  • 00:30:00 Adam Grealish, CEO di Betterment, discute l'importanza della gestione delle tasse negli investimenti al dettaglio e delinea tre strategie per una gestione fiscale efficace: riscossione delle perdite fiscali, localizzazione degli asset e smistamento dei lotti. La raccolta delle perdite fiscali comporta la vendita di titoli in perdita per realizzare minusvalenze a fini fiscali e l'acquisto di titoli correlati per mantenere l'esposizione al mercato. Il miglioramento mira a massimizzare le perdite raccolte mantenendo l'allocazione del rischio target ed evitando le wash sales, che si verificano quando un investitore vende un titolo in perdita e acquista un titolo sostanzialmente identico entro 30 giorni. Grealish osserva inoltre che la gestione fiscale presenta opportunità per sovraperformare il mercato e può comportare una sostanziale evasione fiscale in determinate situazioni.

  • 00:35:00 Adam sconsiglia di tornare ciecamente a un titolo primario dopo 30 giorni per evitare di aumentare la tua responsabilità fiscale, poiché potresti realizzare un dollaro in perdite a lungo termine ma poi quattro dollari in plusvalenze a breve termine, portando a un risultato negativo arbitraggio fiscale. Sottolinea inoltre che l'aliquota fiscale inferiore del dividendo qualificato entra in vigore solo dopo un periodo di 60 giorni e tornare indietro troppo rapidamente può danneggiare l'efficienza fiscale. Grealish consiglia di scegliere un titolo secondario con un'elevata correlazione con il primario, commissioni comparabili e liquidità sufficiente per garantire l'efficienza fiscale. Quando si tratta di raccolta, Grealish suggerisce di fissare una soglia in cui i benefici attesi dovrebbero essere maggiori dei costi di transazione e dei costi di opportunità, che possono essere determinati utilizzando la teoria delle opzioni, in particolare se i titoli hanno un'elevata volatilità. Il back test di Grealish mostra un offset annuo vicino al 2 percento, ma avverte che seguire ciecamente questa strategia potrebbe non essere sempre ottimale.

  • 00:40:00 In questa sezione, Adam Grealish discute i vantaggi della riscossione delle perdite fiscali e fornisce consigli su come applicarla in modo efficace in un conto personale. La riscossione delle perdite fiscali può essere un modo efficace per gestire il rischio e i risultati dei test retrospettivi mostrano che promuove l'alfa al netto delle imposte. Tuttavia, gli utenti devono considerare i costi di transazione e il costo opportunità delle future vendite di lavaggio quando applicano questa strategia per gli account personali. La localizzazione degli asset è un'altra strategia che può massimizzare i rendimenti al netto delle imposte. Allocando le risorse tra i conti per preservare l'allocazione target e il rischio del portafoglio, gli utenti possono aumentare i loro rendimenti al netto delle imposte.

  • 00:45:00 Adam Grealish discute i trattamenti fiscali per diversi tipi di titoli e fornisce un approccio algoritmico all'investimento personale. Spiega come ottimizzare l'investimento in tre conti spostando gli asset inefficienti in conti fiscalmente avvantaggiati e quelli efficienti in quelli tassabili. Ciò implica considerare i tassi di crescita, i rendimenti da dividendi, le tasse di liquidazione e i rapporti di reddito da dividendi qualificati delle attività e impostare il problema come un problema di programmazione lineare. Questo approccio algoritmico all'investimento aggiunge circa 50 punti base all'anno a una strategia non ottimizzata.

  • 00:50:00 In questa sezione, Adam Grealish parla della gestione dei lotti fiscali e di come Betterment aiuta i suoi utenti a ordinare tutti i loro lotti e vendere prima le perdite maggiori prima di passare ai guadagni e vendere prima quelli più piccoli. Sottolinea inoltre l'importanza delle perdite ai fini fiscali e il modo in cui possono essere utilizzate contro plusvalenze, cancellate dal reddito o riportate a nuovo. Grealish discute quindi la questione dell'incertezza dell'aliquota fiscale e di come Betterment la affronta attraverso il suo processo di black litterman incorporando la sovraperformance al netto delle imposte come visione e specificando un livello di fiducia attorno ad essa. Quindi eseguono una solida ottimizzazione dei loro rendimenti successivi e ne costruiscono un portafoglio ottimale, rivedendo le loro ipotesi sul mercato dei capitali e la posizione strategica degli asset su base annuale. Infine, elabora la maggiore allocazione di obbligazioni muni nel loro portafoglio tassabile a causa della loro maggiore performance attesa al netto delle imposte.

  • 00:55:00 Adam Grealish discute il tema del comportamento e come influisce sugli investitori al dettaglio. Spiega come gli investitori tendono ad acquistare quando il mercato sale e a vendere quando scende, il che porta a sottoperformance e diminuzione della ricchezza. Per combattere questo, i robo-advisor impostano impostazioni predefinite intelligenti, utilizzano l'automazione e incoraggiano investimenti basati sugli obiettivi per promuovere un comportamento migliore. Adam cita anche studi che quantificano la sottoperformance annualizzata dovuta al comportamento degli investitori, in genere compresa tra l'1 e il 4%.

  • 01:00:00 Adam discute l'approccio di Betterment per combattere i cattivi comportamenti di investimento attraverso la progettazione intenzionale e l'analisi dei dati. Osserva che circa tre quarti dei loro account non sono impegnati nel market timing e la società monitora attentamente l'attività dei clienti. Betterment utilizza il design del colore per indicare quando un cliente è fuori strada per raggiungere il proprio obiettivo finanziario, spingendolo ad agire per rimettersi in carreggiata. Durante i periodi di incertezza del mercato, l'azienda si affida alla sua piattaforma per testare diversi messaggi e interventi e ha scoperto che la notifica ai clienti delle tendenze negative del mercato ha causato allarme e portato a risultati negativi. Invece, gli interventi e la messaggistica all'interno dell'app si sono rivelati più efficaci nel ridurre gli esiti negativi e aumentare i depositi dei clienti.

  • 01:05:00 In questa sezione, Adam Grealish, Chief Investment Officer di Betterment, discute la misura in cui l'investimento algoritmico è motivato dal desiderio di raccogliere risorse e se è etico. Sottolinea che il sistema colpisce principalmente le persone che sono fuori bersaglio nei loro obiettivi o ai margini dell'essere sulla buona strada e afferma che ci sono modi migliori per estrarre risorse se questo fosse l'obiettivo dell'azienda. Altre strategie che discute includono la modifica di risparmi e depositi o l'alterazione del proprio piano degli obiettivi. Grealish descrive anche l'approccio di Betterment per mitigare i pregiudizi comportamentali, come la sua funzione di "anteprima dell'impatto fiscale" che mostra ai clienti potenziali passività fiscali e si è dimostrata efficace nel ridurre la probabilità di decisioni avventate.

  • 01:10:00 Adam discute i potenziali usi dell'IA nello spazio fintech. Crede che alcuni dei primi posti in cui l'intelligenza artificiale sarà vista sia nell'automazione di elementi finanziari periferici come la consulenza robotica e la gestione della liquidità. Betterment, ad esempio, sta esplorando l'uso dell'intelligenza artificiale per mappare un account esterno a un proxy ticker e utilizzare i dati delle transazioni per consigliare le persone su quanto denaro dovrebbero avere nel loro conto corrente. Grealish suggerisce anche che, a lungo termine, Betterment mira a mettere un consulente finanziario al centro della vita finanziaria di tutti e rendere ampiamente disponibili cose che erano disponibili solo per un patrimonio netto ultra elevato e investitori istituzionali, compresa la preparazione fiscale. Tuttavia, l'individualizzazione della preparazione fiscale renderebbe il problema molto più complesso.

  • 01:15:00 Adam Grealish di Betterment spiega che le obbligazioni municipali specifiche dello stato non sono sulla piattaforma Betterment perché non è sempre ovvio che essere nello stato sia l'opzione migliore, ed è un po' come una voce fuori menu . Sebbene la piattaforma Betterment ti consenta di collegare conti esterni per qualsiasi altra proprietà immobiliare e monitorare manualmente il tuo patrimonio netto, non sono disponibili valutazioni del rischio-rendimento ad alta intensità di risorse di altri fondi. Betterment si concentra sul pensare alle classi di attività piuttosto che precludere una classe di attività per motivi fiscali ed è unico nello spazio di robo-advisory grazie alla sua struttura di consulente indipendente e alla sua spinta nelle transazioni quotidiane dei clienti, diventando un consulente finanziario più completo . L'azienda esegue alcuni dei suoi calcoli di ricerca su AWS, sebbene non sia ancora un utente elevato di AWS o di API pubbliche esistenti.

  • 01:20:00 In questa sezione, Adam Grealish discute il processo commerciale per il miglioramento. Sebbene considerassero l'internalizzazione dei flussi di ordini per i loro clienti, questa opzione alla fine non è stata perseguita a causa della sua classificazione come sede di negoziazione alternativa. Betterment ha invece il suo trading desk, con operazioni eseguite tramite Apex, che effettua anche la compensazione per loro. Ai clienti non vengono addebitati i costi di transazione, solo la tariffa fissa della piattaforma, che mantiene le negoziazioni poco frequenti. Gli ETF di Betterment sono composti da azioni e obbligazioni offrendo allo stesso tempo risparmi fiscali all'interno di fondi obbligazionari. Inoltre, Betterment tiene traccia di tutti i rendimenti al netto del rendimento previsto, poiché questo può essere suddiviso in rendimenti realizzati e previsti.
Adam Grealish: "An Algorithmic Approach to Personal Investing"
Adam Grealish: "An Algorithmic Approach to Personal Investing"
  • 2020.09.17
  • www.youtube.com
In this talk, Adam Grealish of Betterment will explore how technology can be used to improve investor outcomes. Technology and automation can play a signific...
 

Miquel Noguer i Alonso: "Ultimo sviluppo nel deep learning in finanza"



Miquel Noguer i Alonso: "Ultimo sviluppo nel deep learning in finanza"

In questo video completo, Miquel Noguer i Alonso esplora il potenziale del deep learning nel campo della finanza, nonostante le complessità intrinseche e la natura empirica del settore. Il deep learning offre funzionalità preziose per acquisire relazioni non lineari e riconoscere modelli ricorrenti, in particolare nei dati non strutturati e nelle applicazioni finanziarie. Tuttavia, presenta anche sfide come l'overfitting e l'efficacia limitata in situazioni non stazionarie. Per affrontare queste sfide, l'integrazione di fattori, l'analisi del sentiment e l'elaborazione del linguaggio naturale possono fornire preziose informazioni ai gestori di portafoglio che si occupano di grandi quantità di dati. È importante notare che non esiste un modello unico per tutti e che le reti neurali profonde non dovrebbero sostituire i modelli di benchmark tradizionali. Inoltre, Alonso sottolinea l'importanza di BERT, un modello linguistico open source altamente efficiente che dimostra una profonda comprensione dei numeri nei testi finanziari, rendendolo particolarmente prezioso per i set di dati finanziari.

In tutto il video, Alonso condivide importanti approfondimenti e discute vari aspetti dell'utilizzo di modelli di deep learning nella finanza. Esplora la trasformazione dei dati finanziari in immagini per l'analisi utilizzando reti neurali convoluzionali, sfruttando i codificatori automatici per la compressione dei dati non lineari e applicando le reti di memoria per l'analisi delle serie temporali. La collaborazione tra esperti di dominio e professionisti del machine learning è sottolineata come un fattore critico per affrontare efficacemente i problemi legati alla finanza utilizzando tecniche di deep learning.

Alonso approfondisce le sfide incontrate quando si lavora con il deep learning in finanza, come la natura dinamica del processo di generazione dei dati e la necessità di sviluppare modelli in grado di adattarsi a questi cambiamenti. Evidenzia i concetti della teoria dell'informazione, della complessità e della compressione delle informazioni per trovare la rappresentazione più concisa. Viene discusso il teorema di approssimazione universale, sottolineando la capacità delle reti neurali profonde di approssimare qualsiasi funzione con precisione arbitraria, ma la generalizzazione non è garantita. Il relatore raccomanda un'ulteriore esplorazione dei documenti di ricerca sulla regolarizzazione, le dimensioni intrinseche delle reti neurali e le reti neurali sovraparametrizzate.

L'oratore tocca anche l'idea di un regime di interpolazione, in cui le reti neurali profonde possono scoprire classi di funzioni più ampie che identificano funzioni di interpolazione con norme più piccole. Discutono gli aspetti qualitativi delle reti neurali profonde, sottolineando la diversa importanza dei diversi livelli e il loro ruolo nella previsione delle serie temporali. Tuttavia, si sottolinea che i modelli lineari servono ancora come benchmark e che i risultati dei modelli di deep learning dovrebbero essere confrontati con essi.

Alonso fornisce approfondimenti sulle prestazioni dei modelli di deep learning nella finanza, mostrando i risultati dell'utilizzo di reti di memoria a lungo termine a breve termine con più azioni e dimostrando la loro superiorità rispetto ad altre reti neurali. È stato dimostrato che i modelli di deep learning superano i modelli lineari nella selezione dei migliori titoli nell'S&P 500, con conseguenti migliori rapporti di informazioni fuori campione. Il relatore sottolinea che il deep learning funziona costantemente bene e può essere una scelta affidabile quando si seleziona un modello.

I fattori svolgono un ruolo cruciale nei modelli di deep learning per la finanza, consentendo l'esplorazione di relazioni non lineari con i rendimenti. L'utilizzo della non linearità distingue questo approccio dai puri esercizi di serie temporali. Il relatore sottolinea inoltre l'importanza della selezione dei parametri durante il periodo di addestramento e mette in guardia dal presumere che l'utilizzo di più dati porti sempre a una maggiore precisione. È importante notare che questi modelli non incorporano costi o considerazioni di vita reale, in quanto sono principalmente per scopi di ricerca basati su dati storici.

Il relatore chiarisce il fulcro del loro documento, sottolineando che l'intenzione non è affermare che le reti neurali profonde siano superiori, ma piuttosto sottolineare la necessità che vengano utilizzate insieme ai modelli di benchmark tradizionali. Viene discussa l'importanza di acquisire relazioni non lineari e comprendere i cicli ricorrenti, insieme alla necessità di considerare parametri come la finestra di apprendimento. Le reti neurali profonde possono fornire approfondimenti unici in scenari specifici acquisendo effetti di secondo o terzo ordine che i modelli lineari potrebbero trascurare. Tuttavia, si sottolinea che non esiste un modello universale e che le reti neurali profonde dovrebbero integrare i modelli di benchmark esistenti anziché sostituirli.

Viene anche esplorata l'applicazione dell'elaborazione del linguaggio naturale, in particolare l'analisi del sentimento, nella finanza. Data la grande quantità di informazioni generate nei mercati, gli strumenti per i big data sono essenziali per indagare e analizzare gli spazi ad alta dimensione. Il machine learning, in particolare il deep learning, si rivela prezioso per affrontare queste sfide. I modelli linguistici possono essere sfruttati per attività come l'analisi del sentiment, che può fornire informazioni sullo slancio del mercato. Raschiare Internet ha dimostrato di essere un approccio efficiente per rilevare i cambiamenti delle informazioni che possono indicare cambiamenti nel mercato. Nel complesso, l'elaborazione del linguaggio naturale offre preziose informazioni ai gestori di portafoglio che si occupano di grandi volumi di dati.

Nel video, il relatore approfondisce i due approcci all'analisi del sentiment in finanza. Il metodo tradizionale prevede il conteggio della frequenza delle parole positive e negative, mentre l'approccio più avanzato utilizza il deep learning e i word embedding per cogliere il significato contestuale e semantico delle parole. Il relatore sottolinea l'efficacia della rappresentazione dell'encoder bidirezionale dai trasformatori (BERT), un modello linguistico all'avanguardia che offre una rappresentazione più accurata ed efficiente delle parole. La capacità del BERT di comprendere i numeri nei testi finanziari è particolarmente cruciale per un'analisi finanziaria accurata. Anche altri approssimatori di funzioni come perceptron multistrato, reti di memoria e covnet sono menzionati come strumenti utili in finanza.

Inoltre, il relatore discute il concetto di trasformazione dei dati finanziari in immagini e l'utilizzo di reti neurali convoluzionali per l'analisi. Questo approccio si rivela particolarmente vantaggioso per i problemi di apprendimento senza supervisione. Viene introdotto l'uso di codificatori automatici per la compressione di dati non lineari e reti di memoria per l'analisi di serie temporali. Le reti di memoria possono essere adatte per l'analisi di dati di serie temporali se l'ambiente è sufficientemente stabile. Inoltre, il relatore tocca l'uso di modelli di trasformatore per l'elaborazione del linguaggio in ambito finanziario e fornisce approfondimenti sulla loro implementazione utilizzando TensorFlow.

Per quanto riguarda l'implementazione di modelli di deep learning open source in finanza, il relatore sottolinea che sebbene possa essere necessaria una formazione specifica per le applicazioni finanziarie, si tratta di un obiettivo raggiungibile a causa dell'abbondanza di codice open source disponibile. La collaborazione tra esperti di dominio e studenti di macchine è fondamentale per risolvere i problemi relativi alla finanza, in quanto vi sono numerose opportunità per sfruttare l'apprendimento automatico sul campo. Il relatore osserva che mentre gli approcci artigianali di elaborazione del linguaggio naturale sono attualmente utilizzati nella finanza, i modelli di deep learning devono ancora essere ampiamente adottati nel settore.

Il video approfondisce anche i metodi tradizionali di controllo artigianale nella finanza, in cui le persone usano dizionari per descrivere entità come JP Morgan assicurandosi che non ci siano errori di battitura. Viene discussa l'efficacia di vari algoritmi di apprendimento automatico, come le reti di memoria a lungo termine e BERT. BERT è considerato lo stato dell'arte nella ricerca pubblicata. Viene inoltre esplorato il potenziale dell'apprendimento automatico per investimenti trasversali, suggerendo l'uso di fattori o rendimenti per assistere le macchine nell'interpretazione di rendimenti o fattori forfettari.

Affrontando la difficoltà di trovare valori ottimali nel deep learning, il relatore riconosce che può trattarsi di un problema NP. I data scientist umani con esperienza e intuizione devono fare scelte euristiche basate sulla loro esperienza. Viene evidenziata la sfida di comprendere e interpretare le reti neurali profonde, poiché anche i matematici faticano a formulare equazioni per spiegare le loro prestazioni eccezionali. L'analisi qualitativa è spesso impiegata in questi casi. Tuttavia, nel tempo e dopo aver lavorato con vari set di dati, i data scientist possono sviluppare un'intuizione per selezionare i parametri più appropriati per situazioni specifiche.

  • 00:00:00 Miguel Noguer i Alonso discute l'applicazione del deep learning nella finanza. Osserva che il deep learning ha avuto successo in altre aree come il riconoscimento delle immagini e i modelli linguistici, ma è complicato vedere come possa essere applicato con successo nella finanza a causa della natura empirica e rumorosa del settore. Nonostante la complessità, ci sono possibilità entusiasmanti per l'uso del deep learning in dati non strutturati e applicazioni finanziarie. L'Education Finance Institute sta collaborando con università e aziende per ricercare l'uso dell'intelligenza artificiale nella finanza.

  • 00:05:00 In questa sezione del video, Miquel Noguer i Alonso discute il potenziale dell'utilizzo di modelli di apprendimento automatico nella finanza e la mancanza di ricerche condotte in questo settore. Continua evidenziando i vari campi dell'apprendimento automatico che possono essere utilizzati nella finanza, inclusi l'apprendimento supervisionato, non supervisionato e per rinforzo. Noguer i Alonso incoraggia i ricercatori a concentrarsi sulla creazione di più strumenti per l'apprendimento non supervisionato poiché attualmente la ricerca in questo settore è limitata. Conclude affermando che non c'è posto nella finanza in cui l'apprendimento automatico non possa essere utilizzato per scopi come la previsione di perdite su crediti e l'organizzazione di set di dati.

  • 00:10:00 Il relatore introduce il deep learning come motore per l'apprendimento impossibile, i problemi di regressione e l'apprendimento non supervisionato attraverso l'uso di funzioni non lineari. La rete neurale è spiegata come una funzione non lineare con un gran numero di parametri, il che ha portato ad avvertimenti da parte di statistici e ingegneri sulla sua fattibilità. Tuttavia, i pionieri del deep learning hanno trovato le giuste combinazioni di funzioni di attivazione, numero di livelli e neuroni che lo fanno funzionare contro le aspettative statistiche. Il relatore discute anche le varie architetture del deep learning, come le reti neurali convoluzionali, le reti neurali ricorrenti e i trasformatori.

  • 00:15:00 Il relatore discute i pro ei contro del deep learning in finanza. Tra i lati positivi, i modelli di deep learning sono migliori nel catturare la non linearità e la natura espressiva dei set di dati e mostrano l'efficienza nelle serie temporali multivariate. Sono anche competitivi con il potenziamento degli alberi, una delle migliori tecniche per i dati categorici e numerici. Tuttavia, i principali svantaggi sono l'overfitting dovuto all'elevato numero di parametri nei modelli di deep learning e alla loro mancanza di efficacia in situazioni non stazionarie, che è un grosso problema in finanza poiché le serie temporali continuano a cambiare. Il relatore osserva che i modelli attuali non forniscono buone soluzioni a questo problema.

  • 00:20:00 Miquel Noguer i Alonso spiega le sfide affrontate dal deep learning in finanza, in particolare nella natura mutevole del processo di generazione dei dati e come creare modelli che possano funzionare al suo interno. Una soluzione che suggerisce viene dalla teoria dell'informazione; l'idea di complessità e la compressione delle informazioni nel programma più breve possibile. Discute anche del teorema di approssimazione universale e di come garantisce che le reti profonde possano approssimare qualsiasi cosa con precisione arbitraria, ma non è garantito che si generalizzino. Incoraggia i lettori a leggere un articolo di Sun che sostiene che la regolarizzazione non è sufficiente per la generalizzazione e raccomanda articoli sulle dimensioni intrinseche delle reti neurali e delle reti neurali sovraparametrizzate.

  • 00:25:00 In questa sezione, l'oratore parla di un nuovo regime chiamato regime di interpolazione in cui le reti profonde potrebbero essere in grado di scrivere alcuni certificati facendo restituire un numero enorme di gravità, il che potrebbe portare alla scoperta di grandi classi di funzioni che trovano funzioni di interpolazione con norme minori. L'idea è trovare cose più semplici con quel numero di funzioni. Discutono anche degli aspetti qualitativi dei modelli, come il modo in cui tutti i livelli non sono creati uguali e il ruolo delle reti neurali profonde nella previsione delle serie temporali. Tuttavia, i modelli di riferimento per loro sono ancora i modelli lineari e devono confrontare i risultati con i benchmark.

  • 00:30:00 Il relatore discute le prestazioni dei modelli di deep learning in finanza. Dimostrano i risultati dell'utilizzo di reti di memoria a lungo termine con 30 stock invece di uno solo e notano che l'errore assoluto è inferiore rispetto ad altre reti neurali. Il relatore mostra anche come i modelli di deep learning superano i modelli lineari nella selezione dei migliori titoli nell'S&P 500, con il risultato di migliori rapporti di informazioni fuori campione. Nel complesso, il deep learning risulta essere costantemente vicino ai migliori modelli ed è una buona scelta quando si sceglie un modello alla cieca.

  • 00:35:00 Il relatore discute l'uso dei fattori nei modelli di deep learning per la finanza. Fattori come qualità, valore e momentum vengono utilizzati per indagare sulle relazioni non lineari con i rendimenti. La differenza tra questo metodo e un puro esercizio di serie temporali è l'uso della non linearità. Il relatore discute anche l'importanza dei parametri del periodo di allenamento, osservando che l'utilizzo di più dati non significa necessariamente una migliore precisione. Il modello non include costi o considerazioni sulla vita reale, poiché è puramente a scopo di ricerca e basato su dati passati.

  • 00:40:00 In questa sezione, il relatore discute il documento che sta aggiornando e chiarisce che l'affermazione nel documento non è che le reti profonde siano migliori, ma piuttosto che devono essere gestite insieme ai modelli di benchmark tradizionali. Inoltre, il relatore spiega che le reti profonde sono utili per catturare relazioni non lineari e apprendere i cicli corretti. Tuttavia, devono essere considerati anche i parametri, come la finestra in cui le reti apprendono. Inoltre, le reti profonde potrebbero dirci cose diverse in alcuni regimi di riparazione a causa dell'apprendimento di effetti di secondo o terzo ordine che un modello lineare potrebbe perdere. Il relatore sottolinea inoltre che non esiste un modello unico per tutti e che le reti profonde non dovrebbero sostituire i tradizionali modelli di riferimento.

  • 00:45:00 Miguel Noguer i Alonso discute l'uso dell'elaborazione del linguaggio naturale nella finanza, in particolare l'analisi dei sentimenti. Con la grande quantità di informazioni generate nei mercati, sono necessari strumenti di big data per indagare e l'apprendimento automatico, in particolare il deep learning, può essere utile per gestire spazi ad alta dimensione. I modelli linguistici possono essere utilizzati per attività come l'analisi del sentimento, che può essere un precursore dello slancio nella finanza. Raschiare Internet si è anche dimostrato un modo efficiente per cercare cambiamenti di informazioni che potrebbero indicare cambiamenti di mercato. Nel complesso, l'elaborazione del linguaggio naturale può fornire informazioni utili per i gestori di portafoglio quando si tratta di grandi quantità di dati.

  • 00:50:00 In questa sezione, il relatore discute l'uso dell'analisi del sentiment in finanza e i due modi in cui può essere fatto: il metodo tradizionale di contare la frequenza delle parole positive e negative e il metodo più avanzato di usare profonde apprendimento e word embedding per comprendere il contesto e la semantica delle parole. Il modello più avanzato è la rappresentazione dell'encoder bidirezionale dai trasformatori, che consente una rappresentazione più efficiente e accurata delle parole. Questa tecnologia può essere utile in cose come la gestione del tempo e i problemi della catena di approvvigionamento.

  • 00:55:00 In questa sezione, Miquel Noguer i Alonso discute l'ultimo sviluppo del deep learning in finanza con particolare attenzione all'architettura complicata bidirezionale, BERT e all'importanza dei numeri nei modelli linguistici. BERT è un modello di linguaggio open source altamente efficiente che può essere utilizzato per addestrarsi su set di dati finanziari, il che può far risparmiare tempo e fatica umana. Funziona meglio di altri modelli ed è particolarmente bravo a comprendere i numeri nei testi finanziari, che è fondamentale per un'analisi accurata. I perceptron multistrato, le reti di memoria e i covnet sono altri approssimatori di funzioni utili in finanza.

  • 01:00:00 Miguel Noguer i Alonso discute l'idea di trasformare i dati finanziari in immagini e utilizzare reti neurali convoluzionali per analizzarli, che possono essere particolarmente utili per i problemi di apprendimento senza supervisione. Introduce anche il concetto di codificatori automatici, che possono essere utilizzati per la compressione non lineare dei dati, e reti di memoria, che possono essere adatte per l'analisi di serie temporali se l'ambiente è sufficientemente stabile. Infine, Noguer i Alonso menziona l'uso di modelli di trasformatore per l'elaborazione del linguaggio nella finanza e come implementare questi modelli in TensorFlow.

  • 01:05:00 In questa sezione del video, Miquel Noguer i Alonso, direttore dell'innovazione finanziaria e docente senior di finanza presso la ESADE Business School, discute la fattibilità dell'implementazione di modelli di deep learning open source nella finanza. Spiega che è disponibile molto codice open source e, sebbene possa richiedere una formazione specifica per le applicazioni finanziarie, non è un obiettivo irraggiungibile. Alonso sottolinea anche l'importanza della collaborazione tra esperti di dominio e studenti di macchine per risolvere problemi legati alla finanza, poiché ci sono molte opportunità per l'apprendimento automatico nella finanza. Inoltre, osserva che mentre ci sono approcci NLP artigianali utilizzati nella finanza, i modelli di deep learning non sono ancora ampiamente adottati in questo settore.

  • 01:10:00 I relatori discutono dei metodi tradizionali di controllo artigianale in finanza, che coinvolgono persone che usano dizionari per descrivere cose come JP Morgan e assicurano che non ci siano errori di battitura. Proseguono discutendo l'uso dell'apprendimento automatico nella finanza e l'efficacia di vari algoritmi, come le reti di memoria a corto raggio e BERT, che suggeriscono essere attualmente lo stato dell'arte nella ricerca pubblicata. I relatori discutono anche del potenziale dell'utilizzo dell'apprendimento automatico per investimenti trasversali e suggeriscono di utilizzare fattori o rendimenti per aiutare la macchina a dare un senso a rendimenti o fattori piatti.

  • 01:15:00 In questa sezione, Noguer e Alonso discutono della difficoltà nel trovare valori ottimali nell'apprendimento profondo e di come possa essere un problema NP, che richiede l'abilità e l'intuizione di uno scienziato di dati umani per fare scelte euristiche basate sull'esperienza e sull'intuizione . Sottolineano le sfide nella comprensione e nell'interpretazione delle reti profonde, poiché anche i matematici faticano a creare equazioni per capire perché funzioni così bene, e invece devono ricorrere all'analisi qualitativa. Nonostante queste sfide, dopo aver lavorato con diversi set di dati, i data scientist possono sviluppare un'intuizione sui migliori parametri da utilizzare per una data situazione.
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
  • 2020.03.19
  • www.youtube.com
Title of Seminar: "Latest Developments in Deep Learning in Finance"Date of Seminar: 9/24/19Speaker Bio: Miquel Noguer i Alonso (Artificial Intelligence Finan...
 

Gordon Ritter: "Apprendimento per rinforzo e scoperta di opportunità di arbitraggio"



Gordon Ritter: "Apprendimento per rinforzo e scoperta di opportunità di arbitraggio"

In questo video, Gordon Ritter esplora l'applicazione dell'apprendimento per rinforzo nel contesto dei mercati finanziari, concentrandosi in particolare sulla scoperta di opportunità di arbitraggio all'interno del trading di derivati. Sottolinea l'importanza della complessa pianificazione e strategia multiperiodale di fronte all'incertezza. Ritter dimostra l'uso delle funzioni di valore per guidare la ricerca di politiche ottimali e propone una funzione di ricompensa che combina l'incremento di un singolo periodo con una costante moltiplicata per il quadrato della deviazione dalla media.

Ritter discute il processo di creazione di una simulazione che include un'opportunità di arbitraggio senza indicare esplicitamente alla macchina dove trovarla. Sottolinea l'uso di simulazioni stocastiche per modellare i mercati finanziari e suggerisce che con dati sufficienti, un agente addestrato attraverso l'apprendimento per rinforzo può identificare l'arbitraggio di mercato. Tuttavia, riconosce i limiti dell'apprendimento per rinforzo, come l'overfitting e le sfide nella gestione di scenari imprevisti. Ulteriori test, come l'esplorazione di strategie commerciali di neutralità gamma, vengono proposti per espandere le capacità degli agenti addestrati.

Il video include un'analisi delle prestazioni di un agente di apprendimento per rinforzo rispetto a un agente di base nella copertura dei derivati. L'agente addestrato dimostra significativi risparmi sui costi pur mantenendo un intervallo simile di volatilità realizzata, dimostrando la sua capacità di fare compromessi tra costo e rischio. Ritter discute la rilevanza delle funzioni di valore nell'apprendimento per rinforzo per il trading di derivati, poiché i prezzi dei derivati stessi possono essere visti come una forma di funzione di valore.

Ritter sottolinea anche l'importanza di costruire vettori di stato e spazi di azione appropriati nell'apprendimento per rinforzo. L'inclusione di informazioni rilevanti nel vettore dello stato e la definizione di azioni appropriate sono essenziali per un processo decisionale efficace. Presenta l'uso dei processi Ornstein e Limbic come mezzo per modellare le dinamiche di ritorno alla media, che possono potenzialmente portare a opportunità di arbitraggio.

Inoltre, il video discute le sfide dell'utilizzo dei rendimenti a breve termine per le opportunità di trading e i limiti degli spazi di stato finiti. Ritter suggerisce di impiegare spazi di stato continui e metodi di approssimazione delle funzioni, come alberi modello e reti neurali, per affrontare queste sfide e migliorare la stima delle funzioni di valore.

Infine, Ritter riconosce che mentre l'apprendimento per rinforzo può essere uno strumento prezioso per scoprire opportunità di arbitraggio, non è un approccio garantito nel trading nella vita reale. Conclude evidenziando il potenziale dell'apprendimento per rinforzo per scoprire operazioni redditizie attraverso sistemi stocastici, ma mette in guardia dall'aspettarsi che trovi opportunità di arbitraggio se non esistono sul mercato. Vengono inoltre riconosciuti i limiti dell'apprendimento per rinforzo, incluso l'overfitting e la sua incapacità di gestire scenari imprevisti.

  • 00:00:00 In questa sezione, Gordon Ritter parla dell'apprendimento attraverso l'esperienza al fine di ottimizzare le ricompense nel tempo in un ambiente incerto. Fornisce esempi di come i robot possono navigare in una stanza e di come le gazzelle imparano a camminare inviando segnali ai muscoli delle gambe. Menziona anche che il miglior giocatore di Go al mondo è ora un agente addestrato con metodi di apprendimento per rinforzo, che è il fulcro del suo discorso. Ritter sottolinea l'importanza della complessa pianificazione e strategia multi-periodo in presenza di incertezza e come l'apprendimento per rinforzo può essere applicato in finanza per scoprire opportunità di arbitraggio.

  • 00:05:00 Gordon Ritter spiega il concetto di apprendimento per rinforzo, che è il processo di un agente che interagisce con l'ambiente e agisce per ottimizzare un segnale di ricompensa. L'agente osserva lo stato dell'ambiente e determina se le sue azioni hanno portato a una ricompensa positiva o negativa. L'apprendimento per rinforzo implica l'uso di funzioni di valore per strutturare la ricerca di politiche ottimali per massimizzare l'aspettativa di ricompensa a lungo termine. Ritter osserva che l'idea delle funzioni di valore è familiare a coloro che hanno un background in finanza matematica.

  • 00:10:00 In questa sezione del video, Gordon Ritter discute il concetto di apprendimento per rinforzo, in particolare l'equazione di Hamilton-Jacobi Bellman che viene utilizzata per trovare la funzione valore di una politica ottimale. Tuttavia, osserva che negli scenari del mondo reale, a volte non è possibile risolvere esplicitamente l'equazione. Ritter introduce quindi la funzione del valore dell'azione, che viene utilizzata per trovare il guadagno atteso a lungo termine dall'intraprendere una particolare azione in un dato stato e seguire successivamente una politica. L'obiettivo dell'apprendimento per rinforzo è trovare la politica ottimale trovando il segnale o la funzione del valore dell'azione che corrisponde ad essa. Ritter pone quindi la questione se l'intelligenza artificiale possa scoprire una strategia di trading dinamico ottimale in uno scenario realistico, tenendo conto dei costi del trading come lo spread bid-offer e le commissioni. Suggerisce che se ci fosse un arbitraggio nel mercato, un agente prodotto dall'apprendimento per rinforzo sarebbe in grado di trovarlo con dati sufficienti.

  • 00:15:00 Gordon Ritter discute l'uso dell'apprendimento per rinforzo per scoprire opportunità di arbitraggio nei mercati finanziari. Ritter sostiene che, a differenza dei metodi tradizionali che si basano su prezzi coerenti senza arbitraggio, l'apprendimento per rinforzo può essere utilizzato per scoprire se ci sono opportunità di arbitraggio in un dato sistema dinamico. Questo approccio può essere utilizzato per addestrare l'algoritmo a trovare strategie con rapporti di Sharpe elevati, che possono essere utilizzati per identificare l'arbitraggio statistico, che non è un puro arbitraggio ma una buona strategia di trading. Ritter afferma che un tale approccio è simile ad AlphaGo Zero, che ha imparato a giocare a Go senza guida umana e ha battuto i campioni umani.

  • 00:20:00 Gordon Ritter spiega le ipotesi utilizzate per massimizzare l'utilità attesa della ricchezza e come sia matematicamente equivalente a massimizzare la forma quadratica della varianza media. Chiarisce che una funzione quadratica non può essere una funzione di utilità e spiega il segnale di ricompensa che utilizza per addestrare agenti razionali ad agire come investitori di von Neumann Morgenstern. Suggerisce di combinare l'incremento in un singolo periodo meno una costante per il quadrato intorno alla media per la funzione di ricompensa e consiglia sulla scelta di cosa inserire nello stato, sottolineando l'importanza di includere informazioni rilevanti che aiutino l'agente a prendere buone decisioni.

  • 00:25:00 Gordon Ritter spiega come costruire un vettore di stato e uno spazio d'azione nell'apprendimento per rinforzo. Spiega che affinché un agente impari a utilizzare un segnale per prendere una decisione commerciale, quel segnale deve essere incluso nel vettore di stato. Inoltre, lo spazio di azione dovrebbe includere la scelta della strategia di esecuzione da utilizzare, la scelta di un parametro in un algoritmo per modificarne il comportamento o la decisione se superare lo spread o unirsi a una coda sul lato vicino del portafoglio ordini. Ritter fornisce anche un esempio di come i processi Ornstein e Limbic possono essere utilizzati in finanza per modellare le dinamiche di ritorno alla media, che potrebbero portare a un'opportunità di arbitraggio.

  • 00:30:00 In questa sezione, Gordon Ritter discute la costruzione di una simulazione stocastica che contiene almeno un arbitraggio approssimativo come arbitraggio statistico, anche se non è un profitto garantito. Sottolinea che l'agente deve capire tutto giocando e perdendo un paio di volte. La simulazione ha un costo di diffusione e un costo di impatto basato su una funzione di impatto del prezzo lineare e, a volte, gli piace giocare con un moltiplicatore rispetto al costo complessivo. Dice che il vettore di stato può essere abbastanza semplice e lo stato contiene solo ciò che l'agente detiene e il prezzo, che contiene il segnale. Infine, osserva che questa è solo una prova di concetto poiché non è garantito che funzioni nel trading nella vita reale.

  • 00:35:00 Gordon Ritter discute il processo di creazione di una simulazione che ha un'opportunità di arbitraggio senza dire esplicitamente alla macchina dove cercarla. Spiega che funziona imparando una funzione valore e con un metodo classico chiamato Q-learning. Tuttavia, ammette che non gli piace particolarmente il modello per la funzione Q perché deve apprendere ogni elemento della matrice in modo indipendente senza continuità. Ritter presenta anche un grafico della funzione valore in funzione del prezzo per varie azioni, mostrando l'emergere di una zona di non scambio attorno al prezzo di equilibrio.

  • 00:40:00 In questa sezione, Gordon Ritter discute i limiti dell'utilizzo dei rendimenti a breve termine per le opportunità di trading e le sfide che sorgono quando si utilizza uno spazio a stati finiti. Suggerisce di utilizzare spazi di stato continui e metodi di approssimazione di funzioni, come alberi modello, per stimare la funzione valore di Bellman Q e trovare la migliore funzione sconosciuta che si adatta ai dati di addestramento. Questo metodo consente un modo più efficiente ed efficace di approssimare la funzione valore e trovare opportunità di trading.

  • 00:45:00 Gordon Ritter discute l'uso di tecniche di apprendimento automatico statistico, come approssimatori di funzioni, per addestrare agenti di apprendimento per rinforzo ad approssimare le ricompense sotto forma di ricompense a lungo e breve termine. Utilizzando un migliore approssimatore di funzione, come una rete neurale, la funzione del valore di Bellmen può essere approssimata in modo più accurato e si può ottenere una funzione continua, consentendo una migliore comprensione delle azioni ottimali. Ritter applica quindi queste tecniche all'esempio della copertura dei derivati, in cui le banche vorrebbero neutralizzare i rischi nelle posizioni senza scaricare i derivati sul mercato. L'obiettivo è utilizzare agenti di apprendimento per rinforzo in grado di negoziare in modo ottimale un paniere di derivati basato su strategie di replicazione dinamica, consentendo la copertura automatica e riducendo i costi dagli impatti di mercato.

  • 00:50:00 In questa sezione, Gordon Ritter discute le variabili di stato che devono esistere, in minima parte, in un mercato delle opzioni europeo per consentire una strategia di portafoglio a replica dinamica. Afferma che le variabili di stato che andrebbero a calcolare il delta in un mondo di tipo Black-Scholes sono il prezzo sottostante e il tempo alla scadenza, con il prezzo di esercizio dell'opzione che fa parte della definizione di cosa sia l'opzione. Inoltre, afferma che lo stato non ha bisogno di contenere l'opzione Greci e ci si aspetta che l'agente apprenda da solo quelle funzioni non lineari. Conclude dicendo che la macchina può solo imparare dall'esperienza dove generare un grande set di esperienze attraverso la simulazione.

  • 00:55:00 Gordon Ritter discute l'output del suo agente di apprendimento per rinforzo che scambia il costo con il volume e lo confronta con un agente di base che utilizza la copertura delta. L'agente addestrato mostra un tracciamento della posizione più agevole della copertura Delta, mentre l'agente di base mostra scambi eccessivi e costi più elevati a causa della copertura Delta. L'agente addestrato ha imparato a fare un compromesso tra costo e rischio e Ritter osserva che è accettabile accettare una certa volatilità per un grande risparmio sui costi. Sebbene il mercato sia stato simulato con costi di negoziazione elevati, l'agente addestrato ha comunque ottenuto risultati migliori rispetto all'agente di riferimento.

  • 01:00:00 In questa sezione, il relatore presenta istogrammi di simulazioni per confrontare le prestazioni dell'agente Delta e il metodo di apprendimento per rinforzo. L'agente Delta mostra un volume realizzato altamente prevedibile, ma l'agente addestrato mostra significativi risparmi sui costi pur mantenendo un intervallo simile di volume realizzato. L'oratore suggerisce ulteriori test, come l'osservazione di strategie di trading che raggiungano la neutralità gamma, che potrebbero essere potenzialmente scoperte dall'agente. Il relatore conclude che l'uso di metodi basati sulla funzione di valore, come visto nell'apprendimento per rinforzo, si interseca bene con il campo del trading di derivati, poiché i prezzi dei derivati stessi sono una forma di funzione di valore.

  • 01:05:00 Gordon Ritter spiega che l'apprendimento per rinforzo può essere utilizzato per scoprire opportunità di arbitraggio addestrando un sistema stocastico in grado di trovare operazioni redditizie. Tuttavia, se il sistema non riesce a trovare alcuna opportunità dopo milioni o miliardi di simulazioni, potrebbe indicare che il mercato non ammette l'arbitraggio. Discute anche i limiti dell'apprendimento per rinforzo, incluso l'overfitting e l'incapacità di gestire scambi infiniti e scenari imprevisti come i flash crash.
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
  • 2019.05.30
  • www.youtube.com
Seminar Date: March 20, 2019Info: Reinforcement learning is a way of training a machine to find an optimal policy for a stochastic optimal control system, ...
 

Marcos Lopez de Prado: "I 7 motivi per cui la maggior parte dei fondi per il machine learning fallisce"



Marcos Lopez de Prado: "I 7 motivi per cui la maggior parte dei fondi per il machine learning fallisce"

Marcos Lopez de Prado ha tenuto una presentazione completa delineando le ragioni alla base del fallimento della maggior parte dei fondi di machine learning nel settore finanziario. Ha sottolineato l'importanza di diversi fattori chiave che contribuiscono al successo in questo campo.

Uno dei fattori principali evidenziati da de Prado è stata l'assenza di una teoria ben formulata nei fondi discrezionali. Ha notato che molte conversazioni sugli investimenti mancano di un approccio costruttivo e astratto a causa della mancanza di una solida base teorica. Senza una teoria che guidi il processo decisionale, i fondi discrezionali faticano a interagire con gli altri e testare le loro idee, con conseguenti scelte sbagliate e potenziali perdite.

De Prado ha anche discusso degli effetti dannosi del lavorare in silos isolati all'interno dei fondi di machine learning. Ha sottolineato che la collaborazione e la comunicazione sono essenziali per il successo, mettendo in guardia dall'assumere numerosi dottorandi e dalla loro segregazione in compiti separati. Invece, ha sostenuto un approccio basato sul team in cui gli specialisti lavorano in modo indipendente ma possiedono la conoscenza delle reciproche competenze, portando a strategie e risultati migliori.

La specializzazione all'interno della squadra è stato un altro aspetto cruciale evidenziato da de Prado. Ha sottolineato l'importanza di assemblare un gruppo di specialisti in grado di gestire sistemi e compiti complessi. Questi esperti dovrebbero possedere competenze indipendenti pur comprendendo la strategia generale ed essere consapevoli dei campi di competenza dei loro colleghi. Questo paradigma di meta-strategia è prezioso non solo per lo sviluppo di strategie efficaci, ma anche per prendere decisioni informate in situazioni incerte, tra cui assunzioni, supervisione degli investimenti e definizione di criteri di arresto.

La corretta gestione dei dati finanziari è stato un altro fattore chiave discusso da de Prado. Ha sottolineato la necessità di raggiungere la stazionarietà dei dati preservando le informazioni preziose. Ha suggerito di differenziare i dati per frazione per conservare le informazioni della memoria da osservazioni precedenti, consentendo previsioni critiche in punti specifici. Inoltre, ha consigliato di utilizzare una soglia specifica per ottenere una correlazione quasi perfetta tra serie stazionarie e originali senza utilizzare memoria eccessiva. De Prado ha messo in guardia contro l'utilizzo di rendimenti nei casi in cui non ci sono contratti future liquidi, raccomandando l'uso di una singola osservazione nella maggior parte degli scenari.

Anche la frequenza di campionamento e l'appropriata etichettatura dei dati sono state affrontate da de Prado. Ha proposto di basare la frequenza di campionamento sull'arrivo di informazioni di mercato piuttosto che fare affidamento su metodi convenzionali come osservazioni giornaliere o minute. Utilizzando tecniche come le barre del dollaro che campionano in base al volume delle transazioni, è possibile garantire che nel campione siano incluse quantità uguali di informazioni. Una corretta etichettatura delle osservazioni, come l'utilizzo del metodo Touch Barrier Labeling, consente lo sviluppo di strategie consapevoli del rischio, tenendo conto delle dinamiche dei prezzi e della possibilità di essere bloccati.

Il concetto di meta-apprendimento, in cui un modello di apprendimento automatico prevede l'accuratezza delle previsioni di un altro modello, è stato discusso come mezzo per ottenere precisione e richiamo. Componendo due modelli separati, è possibile bilanciare il compromesso tra precisione e richiamo utilizzando la media armonica. De Prado ha consigliato di utilizzare diversi algoritmi di apprendimento automatico per attività distinte per ottimizzare le prestazioni.

De Prado ha evidenziato le sfide dell'applicazione dell'apprendimento automatico nella finanza, sottolineando la necessità per esperti umani di filtrare i dati prima di utilizzare algoritmi di apprendimento automatico. I dati finanziari sono intrinsecamente disordinati e non iid, il che rende difficile collegare osservazioni specifiche alle risorse. Inoltre, i continui cambiamenti nei mercati finanziari dovuti a normative e leggi richiedono un approccio attento e sfumato all'implementazione degli algoritmi di machine learning. Il semplice collegamento dei dati finanziari a un modello di machine learning non è sufficiente per avere successo nella finanza.

Affrontare le questioni della non unicità e dell'overfitting è stato un altro aspetto significativo della presentazione di de Prado. Ha proposto una metodologia per determinare l'unicità delle osservazioni, raccomandando la rimozione delle osservazioni che contengono informazioni più vecchie rispetto a quelle condivise con il set di test, un processo noto come "eliminazione". Questo aiuta a creare modelli di machine learning più accurati allineandosi con i presupposti delle tecniche di convalida incrociata. De Prado ha anche messo in guardia contro i pericoli dell'overfitting, sottolineando che le strategie di test retrospettivi ripetuti possono portare a falsi positivi e diminuire l'utilità nel tempo. Considerare il numero di prove coinvolte nella scoperta delle strategie è fondamentale per evitare l'overfitting e i falsi positivi. De Prado ha consigliato di fissare una soglia elevata per l'esecuzione delle strategie per mitigare i rischi associati all'overfitting.

Il concetto di "fragola sgonfia" è stato introdotto da de Prado, illustrando che molti hedge fund presentano asimmetria negativa e curtosi in eccesso positiva, anche se i gestori di fondi non hanno preso di mira intenzionalmente queste caratteristiche. Ciò è principalmente dovuto al fatto che i gestori di fondi vengono valutati in base all'indice di Sharpe e queste proprietà statistiche possono gonfiare l'indice. De Prado ha sottolineato l'importanza di considerare la dimensione del campione e il numero di prove coinvolte nella produzione di una scoperta durante l'analisi dei rendimenti. Ha messo in guardia contro l'investimento in strategie con una bassa probabilità di raggiungere un vero indice di Sharpe maggiore di zero.

Il raggiungimento di un equilibrio tra vestibilità del modello e overfitting è stato sottolineato da de Prado. Ha sconsigliato di cercare una vestibilità perfetta, in quanto può portare a un'eccessiva sicurezza e un aumento del rischio. Invece, ha raccomandato di trovare un modo per conservare ricordi importanti applicando efficacemente modelli statistici. De Prado ha anche messo in guardia contro l'uso di modelli eccessivamente complicati, in quanto possono ostacolare l'alimentazione dei dati e l'impollinazione incrociata, ostacolando l'efficacia complessiva degli algoritmi di apprendimento automatico.

De Prado ha affrontato il fenomeno nel settore in cui determinati tratti o metriche diventano preferiti, portando a una convergenza di strategie. Confrontandolo con l'allevamento di cani, dove la preferenza umana e l'estetica modellano determinati tratti, ha spiegato come l'uso di metriche specifiche, come la combinazione di Sharpe ratio e asimmetria negativa, sia diventato favorito negli hedge fund, anche se inizialmente non lo era mirata. Affrontare questo fenomeno si rivela impegnativo, poiché si verifica senza alcun evento scatenante specifico.

Inoltre, de Prado ha sottolineato l'importanza di utilizzare i dati sui prezzi recenti durante le previsioni, poiché hanno una maggiore rilevanza per l'immediato futuro. Ha raccomandato di utilizzare il decadimento esponenziale del peso per determinare la lunghezza del campione quando si utilizzano tutti i dati disponibili. Inoltre, ha sottolineato l'importanza di controllare il numero di prove ed evitare ambienti di lavoro isolati come insidie comuni che portano al fallimento dei fondi di machine learning. Ha notato che la finanza differisce da altri campi in cui l'apprendimento automatico ha fatto progressi significativi e l'assunzione di statistici potrebbe non essere sempre l'approccio più efficace per lo sviluppo di algoritmi di trading di successo.

In sintesi, la presentazione di Marcos Lopez de Prado ha fatto luce sui motivi per cui la maggior parte dei fondi di machine learning fallisce nel settore finanziario. Ha sottolineato la necessità di una teoria ben formulata, collaborazione di gruppo, specializzazione, corretta gestione e differenziazione dei dati finanziari, campionamento ed etichettatura appropriati, affrontando sfide come la non unicità e l'overfitting e incorporando competenze umane nell'implementazione di algoritmi di apprendimento automatico. Comprendendo questi fattori e adottando un approccio attento e sfumato, i professionisti possono aumentare le probabilità di successo nel dinamico e complesso mondo della finanza.

  • 00:00:00 Marcos Lopez de Prado discute di come la mancanza di una teoria ben formulata nei fondi discrezionali impedisca alle persone di avere una conversazione veramente costruttiva e astratta sugli investimenti. Quando partecipa alle conferenze sugli investimenti, trova che la maggior parte delle conversazioni sia aneddotica senza che venga discussa una vera teoria. Di conseguenza, i fondi discrezionali possono risentire dell'incapacità di interagire con gli altri e testare le teorie. Questa mancanza di una teoria ben formulata può portare a un processo decisionale inadeguato e alla fine portare a una perdita di affari.

  • 00:05:00 In questa sezione, Marcos Lopez de Prado spiega perché la maggior parte dei fondi per il machine learning fallisce, citando il problema del lavoro in silos come fattore principale. Spiega che è impossibile assumere 50 dottori di ricerca e metterli a lavorare insieme in silos, ciascuno lavorando ripetutamente sugli stessi compiti, senza alcuna collaborazione o comunicazione. Ciò spesso porta a tentare più strategie, con conseguenti scoperte errate, implementazioni fallite e, infine, chiusura del fondo. Lopez de Prado afferma che lo sviluppo di strategie richiede uno sforzo di squadra e molte strategie sono necessarie per raggiungere il successo.

  • 00:10:00 Marcos Lopez de Prado sottolinea l'importanza della specializzazione all'interno di un gruppo come fattore chiave per il successo nell'implementazione dell'apprendimento automatico nella finanza. Sostiene che la creazione di un team di specialisti è essenziale per costruire un'infrastruttura ad alte prestazioni in grado di gestire sistemi complessi come processi industriali o strategie di machine learning. I singoli esperti dovrebbero essere in grado di lavorare in modo indipendente, ma comunque essere informati sull'intero piano di gioco ed essere consapevoli dei reciproci campi di competenza e delle domande e delle questioni rilevanti per loro. Questo paradigma di meta-strategia non è utile solo per lo sviluppo di strategie, ma anche per prendere decisioni in condizioni di incertezza, tra cui l'assunzione, la supervisione degli investimenti e l'interruzione dei criteri per le strategie.

  • 00:15:00 In questa sezione, Marcos Lopez de Prado sottolinea l'importanza di gestire correttamente i dati finanziari per raggiungere la stazionarietà preservando le informazioni più preziose. La differenziazione dei dati ha un costo in quanto cancella preziose informazioni sul segnale, rendendo impossibile prevedere qualsiasi cosa. Pertanto, suggerisce di differenziare i dati per frazione per preservare alcune informazioni di memoria su osservazioni precedenti che consentono di discernere se una serie si trova in un punto critico per fare una previsione. Una combinazione di dati differenzianti e stazionari fornisce informazioni utili per l'analisi classica.

  • 00:20:00 Il relatore discute la creazione di serie stazionarie e come realizzarla. Utilizzando una soglia specifica, è possibile ottenere una serie stazionaria quasi perfettamente correlata con la serie originale, senza utilizzare troppa memoria. Se la correlazione con la serie originale è virtualmente nulla, raggiungere la stazionarietà è inutile. Inoltre, il relatore osserva che non ci sono casi futuri liquidi in cui l'utilizzo dei rendimenti sia giustificato e sconsiglia di utilizzarli anche sui dati giornalieri. Suggerisce che l'utilizzo di una singola osservazione sarebbe sufficiente nella maggior parte dei casi.

  • 00:25:00 Il relatore discute l'importanza della frequenza di campionamento e suggerisce che dovrebbe basarsi sulla quantità di informazioni che arriva al mercato, piuttosto che utilizzare metodi canonici come osservazioni giornaliere o di un minuto. Fornisce un esempio dell'utilizzo delle barre del dollaro, che campionano in base alla quantità di transazioni, per garantire che il campione includa quantità uguali di informazioni, piuttosto che solo uguali quantità di tempo o prezzo. Il relatore sottolinea inoltre l'importanza di tenere conto dei prezzi durante il campionamento, in quanto fornisce informazioni critiche che influiscono sull'attività di mercato.

  • 00:30:00 Marcos Lopez de Prado discute l'importanza di campionare ed etichettare correttamente i dati in finanza. Spiega che è fondamentale prelevare più campioni quando sul mercato arrivano molte informazioni perché contengono più informazioni. Suggerisce di utilizzare il metodo Touch Barrier Labeling per etichettare correttamente le osservazioni tenendo conto di ciò che accade al prezzo e di come ha raggiunto quel particolare risultato. In tal modo, consente di sviluppare una strategia che tenga conto dei livelli di rischio, il che è importante perché la maggior parte delle persone deve seguire i livelli di rischio e deve considerare la possibilità di essere bloccata.

  • 00:35:00 Marcos López de Prado discute il concetto di meta-learning, in cui un modello di machine learning viene utilizzato per prevedere se la previsione di un altro modello di machine learning è corretta. Spiega l'importanza di comporre le due decisioni in due modelli diversi e come sia utile per ottenere precisione e richiamo negli algoritmi di apprendimento automatico. López de Prado introduce anche il concetto di media armonica, che viene utilizzato per bilanciare il compromesso tra precisione e richiamo, e suggerisce di utilizzare diversi algoritmi di apprendimento automatico per occuparsi di due compiti molto diversi.

  • 00:40:00 In questa sezione, Marcos Lopez de Prado spiega le sfide dell'utilizzo dell'apprendimento automatico nella finanza. Sottolinea l'importanza di avere esperti umani che filtrano i dati prima di utilizzare algoritmi di apprendimento automatico, poiché i dati finanziari sono disordinati e non iid, il che significa che non è facile collegare una particolare osservazione a un particolare paziente o, in questo caso, a una particolare risorsa . Inoltre, i mercati finanziari cambiano costantemente a causa di nuove normative e leggi, che possono avere un impatto significativo sulle prestazioni di un modello di machine learning. Pertanto, l'utilizzo dell'apprendimento automatico nella finanza richiede un approccio attento e sfumato e non può essere implementato semplicemente inserendo dati finanziari in un algoritmo di apprendimento automatico.

  • 00:45:00 Marcos Lopez de Prado discute la questione della non unicità delle osservazioni e propone una metodologia per affrontarla. Suggerisce di identificare la quantità di sovrapposizione in ciascuna osservazione e di determinarne l'unicità per derivare una soluzione. Poiché le tecniche di convalida incrociata presuppongono che le osservazioni siano indipendenti e distribuite in modo identico, raccomanda anche di identificare quali osservazioni dovrebbero essere rimosse dal set di addestramento per evitare l'assunzione di IID. Questo processo, chiamato "eliminazione", rimuove le osservazioni che contengono informazioni più vecchie di quelle condivise con il set di test, risultando in modelli di machine learning più accurati in ambito finanziario.

  • 00:50:00 In questa sezione, Marcos Lopez de Prado discute il settimo motivo per cui la maggior parte dei fondi per il machine learning fallisce, ovvero l'overfitting. Spiega che anche se l'indice di Sharpe di una strategia è zero, testando ripetutamente la strategia, alla fine si può trovare una strategia sorprendente sulla carta. Tuttavia, ripetuti test retrospettivi possono portare a falsi positivi e diventano meno utili nel tempo. Per evitare overfitting e falsi positivi, bisogna essere intelligenti e fare pratica tenendo conto del numero di prove coinvolte nella loro scoperta. Più pratichi, più alta è la soglia che dovresti richiedere per la pratica.

  • 00:55:00 Marcos Lopez de Prado spiega il concetto della fragola sgonfia, che è l'idea che la maggior parte degli hedge fund abbia asimmetria negativa e curtosi in eccesso positiva, nonostante i gestori di fondi non abbiano intenzionalmente preso di mira questi momenti. Questo perché i gestori di fondi vengono valutati in base all'indice di Sharpe e, statisticamente, l'asimmetria negativa e l'eccesso di curtosi positiva possono gonfiare questo rapporto. De Prado sottolinea l'importanza di considerare la dimensione del campione e il numero di prove coinvolte nella produzione di una scoperta durante l'analisi dei rendimenti e mette in guardia contro l'investimento in una strategia che ha una bassa probabilità di avere un rapporto di Sharpe reale maggiore di zero.

  • 01:00:00 Marcos Lopez de Prado sottolinea l'importanza di bilanciare il compromesso tra l'adattamento del modello ai dati e l'evitare l'overfitting. Suggerisce di non concentrarsi troppo sul raggiungimento di un adattamento perfetto perché potrebbe portare a un'eccessiva sicurezza e un aumento del rischio. Invece, raccomanda di trovare un modo per conservare i ricordi pur essendo in grado di acquistare e applicare modelli statistici in modo efficace. Lopez de Prado osserva inoltre che l'utilizzo di modelli troppo complicati può rendere difficile l'impollinazione incrociata e l'alimentazione dei dati.

  • 01:05:00 Marcos Lopez de Prado spiega come determinati tratti o metriche possono diventare quelli preferiti nei fondi di apprendimento automatico e negli hedge fund, portando a una convergenza nel settore. Usando l'esempio dei cani da riproduzione, dove alcuni tratti sono preferiti a causa della preferenza umana e dell'estetica, paragona questo fenomeno all'uso del commercio dell'indice di Sharpe e dell'asimmetria negativa, che è diventata la combinazione preferita per gli hedge fund, anche se inizialmente non lo era mirata. Osserva che affrontare questo fenomeno è impegnativo, poiché accade senza che si verifichi un evento particolare.

  • 01:10:00 In questa sezione, Marcos López de Prado discute l'importanza di utilizzare i dati sui prezzi recenti durante le previsioni, poiché sono più rilevanti per l'immediato futuro. Suggerisce di utilizzare tutti i dati disponibili con un decadimento esponenziale della ponderazione per decidere la lunghezza del campione. López de Prado sottolinea anche la necessità di controllare il numero di prove ed evitare di lavorare in silos, poiché questi sono i motivi comuni per cui i fondi per il machine learning falliscono. Inoltre, sottolinea che la finanza è diversa da altri campi in cui l'apprendimento automatico ha fatto progressi significativi e l'assunzione di statistici non è sempre l'approccio migliore per sviluppare un algoritmo di trading di successo.
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
  • 2019.05.13
  • www.youtube.com
Seminar Date: September 5, 2017For more information, please visit Marcos Lopez de Prado's website: http://www.quantresearch.org/Summary: In this popular thro...
 

Irene Aldridge: "Rischio in tempo reale nell'ottimizzazione del portafoglio a lungo termine"



Irene Aldridge: "Rischio in tempo reale nell'ottimizzazione del portafoglio a lungo termine"

Irene Aldridge, presidente e amministratore delegato di Able Alpha Trading, offre una discussione completa sull'impatto del trading ad alta frequenza (HFT) sui gestori di portafoglio a lungo termine e sui cambiamenti sistemici nel mercato che interessano l'intero settore. Esplora la crescente automazione nella finanza, guidata dai progressi nei big data e nell'apprendimento automatico, e le sue implicazioni per l'ottimizzazione del portafoglio. Inoltre, Aldridge approfondisce le sfide e le opportunità presentate dai dati sui volumi intraday e propone un approccio graduale che integra l'identificazione del rischio in tempo reale utilizzando i big data. Sostiene una strategia di ottimizzazione del portafoglio più sfumata che incorpori fattori microstrutturali e suggerisce l'uso di fattori come misura difensiva. Aldridge tocca anche il ciclo di vita triennale delle strategie quantitative, il potenziale della realtà virtuale e dell'automazione nell'analisi dei dati e l'applicazione di una matrice computerizzata nell'ottimizzazione del portafoglio.

Durante la sua presentazione, Aldridge sfida l'idea sbagliata secondo cui il trading ad alta frequenza non ha alcun impatto sui gestori di portafoglio a lungo termine. Sostiene che i cambiamenti sistemici nel mercato influenzano tutte le strategie di investimento, indipendentemente dal loro orizzonte temporale. Attingendo alla sua esperienza in ingegneria elettrica, sviluppo software, gestione del rischio e finanza, Aldridge sottolinea l'importanza di esplorare nuove aree come la valutazione del rischio in tempo reale e l'ottimizzazione del portafoglio.

Aldridge evidenzia il significativo spostamento verso l'automazione nel settore finanziario, osservando che il trading manuale ha lasciato il posto a sistemi automatizzati in azioni, cambi, reddito fisso e trading di materie prime. Per rimanere rilevanti, i partecipanti del settore hanno abbracciato le tecniche di big data e machine learning. Tuttavia, riconosce la resistenza iniziale di alcuni trader che temevano che l'automazione avrebbe reso obsoleta la loro esperienza.

Il relatore esplora l'evoluzione dei big data e il loro ruolo nell'ottimizzazione del portafoglio. Sottolinea che la disponibilità di grandi quantità di dati strutturati e non strutturati ha rivoluzionato il panorama finanziario. Aldridge spiega come tecniche come la decomposizione del valore singolare (SVD) consentono l'elaborazione di grandi set di dati per estrarre informazioni preziose. SVD è sempre più utilizzato per automatizzare l'allocazione del portafoglio, con l'obiettivo di incorporare quanti più dati possibile per informare le decisioni di investimento.

Aldridge approfondisce il processo di riduzione delle dimensioni dei dati utilizzando la decomposizione del valore singolare. Tracciando i valori singolari derivati attraverso questo processo, i ricercatori possono identificare i vettori che contengono informazioni significative mentre trattano i vettori rimanenti come rumore. Questa tecnica può essere applicata a vari set di dati finanziari, tra cui capitalizzazione di mercato, beta, prezzo e volatilità intraday. Il set di dati ridotto risultante fornisce una guida affidabile per scopi di ricerca e aiuta a identificare i fattori cruciali per l'ottimizzazione del portafoglio a lungo termine.

Il relatore discute i fattori comuni utilizzati dagli analisti di portafoglio, come prezzo, rischio di mercato (beta), capitalizzazione di mercato e rendimento da dividendi. Anche l'attività istituzionale è un fattore importante e Aldridge evidenzia l'uso dei big data per analizzare i dati delle zecche e rilevare i modelli. Riconoscere l'attività istituzionale fornisce segnali visibili ai partecipanti al mercato, portando a un aumento del volume ea un'esecuzione favorevole.

Aldridge distingue tra strategie HFT aggressive e passive e il loro impatto sulla liquidità. Le strategie HFT aggressive, caratterizzate dalla cancellazione degli ordini, possono erodere la liquidità e contribuire al rischio, mentre le strategie HFT passive, come il market-making, possono ridurre la volatilità fornendo liquidità. Nota che la preferenza per il prezzo medio ponderato per il volume da parte degli investitori istituzionali e l'uso di prezzi medi ponderati per il tempo in alcuni mercati, come i cambi, dove le informazioni sul volume potrebbero non essere sempre disponibili.

Il relatore affronta le sfide poste dai dati sui volumi intraday, data la moltitudine di scambi, la riduzione degli intervalli di tempo e la necessità di determinare il miglior business e la migliore offerta tra più scambi. Nonostante queste sfide, Aldridge vede opportunità significative per l'innovazione e ulteriori ricerche nel sezionamento e nell'analisi dei dati sui volumi intraday. Cita il Security Information Processor (SIP) gestito dalla SEC, che aggrega ordini limite da più scambi, ma riconosce la sfida continua di riconciliare e risolvere i problemi tra diversi scambi.

Aldridge evidenzia i fattori ei rischi microstrutturali inesplorati nell'ottimizzazione del portafoglio. Mentre i gestori di portafoglio a lungo termine si concentrano tradizionalmente sulle caratteristiche di rischio-rendimento e trascurano i fattori microstrutturali, Aldridge suggerisce di incorporarli come input e sfruttare la ricchezza di dati disponibili. Propone un approccio graduale che prevede l'utilizzo della decomposizione del valore singolare per prevedere le prestazioni in base ai rendimenti precedenti e l'utilizzo di big data per identificare e affrontare i rischi in tempo reale. Gli algoritmi possono aiutare a identificare e sfruttare complesse complessità negli scambi, come gli ordini di ping, che potrebbero passare inosservati ai trader umani.

Sfidando i limiti della tradizionale ottimizzazione del portafoglio, Aldridge introduce un approccio più completo che integra fattori microstrutturali e altre dinamiche di mercato. Sottolinea il potenziale dirompente di fattori come gli ETF e i flash crash e sottolinea che le matrici di correlazione da sole potrebbero non essere sufficienti per l'analisi del rischio. Considerando fattori microstrutturali indipendenti che vanno oltre i movimenti di mercato più ampi, Aldridge sostiene una strategia di ottimizzazione del portafoglio sfumata che può aumentare i rendimenti e migliorare gli indici di Sharpe. Ulteriori dettagli sul suo approccio possono essere trovati nel suo libro e accoglie con favore le domande del pubblico riguardo al trading ad alta frequenza.

Aldridge approfondisce ulteriormente la persistenza del trading ad alta frequenza in un giorno e le sue implicazioni per l'allocazione del portafoglio a lungo termine. Lo illustra con l'esempio del volume di trading ad alta frequenza intraday di Google, che mostra stabilità entro un certo intervallo nel tempo. Aldridge evidenzia i costi inferiori associati al trading ad alta frequenza di azioni a prezzi più elevati e la percentuale inferiore del volume di trading ad alta frequenza in penny stock. Inoltre, osserva che la complessità della codifica spesso scoraggia i trader ad alta frequenza dall'impegnarsi con azioni ad alto dividendo. Le strategie aggressive di trading ad alta frequenza comportano ordini di mercato o ordini limite aggressivi posizionati vicino al prezzo di mercato.

Il relatore spiega il ciclo di vita di tre anni di una strategia quantitativa, facendo luce sulle sfide affrontate dai quanti nella produzione di strategie di successo. Il primo anno in genere comporta l'adozione di una strategia di successo da un lavoro precedente e il guadagno di un buon bonus. Il secondo anno è caratterizzato da tentativi di innovazione, ma molti lottano per sviluppare una strategia di successo durante questo periodo. Nel terzo anno, coloro che hanno trovato una strategia di successo possono guadagnare un buon bonus, mentre altri possono scegliere di andarsene e portare la loro strategia precedente in una nuova azienda. Ciò contribuisce a una concentrazione di strategie di trading ad alta frequenza simili, che possono essere ottimizzate o leggermente modificate e spesso eseguono operazioni nello stesso periodo. Aldridge sottolinea che il trading ad alta frequenza, come altre forme di automazione, è vantaggioso e non dovrebbe essere ignorato.

Aldridge conclude la sua presentazione discutendo il potenziale della realtà virtuale e dell'automazione nell'analisi dei dati. Tocca l'utilità dei portafogli e dei fattori basati su beta, utilizzando l'esempio dell'acquisto di un paio di calzini rispetto all'acquisto di un computer Dell e di come i cambiamenti nella versione beta influenzino i loro prezzi in modo diverso. Viene inoltre evidenziata l'importanza di normalizzare i resi e affrontare la casualità nei giorni lavorativi. Aldridge suggerisce di utilizzare i fattori come forma di difesa e sottolinea che l'utilizzo dei fattori può essere un approccio piacevole.

In una sezione, Aldridge spiega l'applicazione di una matrice computerizzata per determinare l'importanza o il coefficiente di ciascun titolo in un portafoglio. La matrice incorpora tecniche di varianza, covarianza e restringimento per regolare i rendimenti e ottenere un risultato più preciso. Identificando i modelli nei rendimenti dei giorni precedenti, la matrice può prevedere i risultati futuri e ottimizzare il portafoglio. Sebbene il modello giocattolo discusso rappresenti un esempio di base, esemplifica il potenziale dell'utilizzo di una matrice computerizzata per l'ottimizzazione del portafoglio a lungo termine.

In sintesi, la presentazione di Irene Aldridge fornisce preziose informazioni sull'impatto del trading ad alta frequenza sui gestori di portafoglio a lungo termine e sul panorama in evoluzione del settore finanziario. Sottolinea il ruolo dell'automazione, dei big data e dell'apprendimento automatico nell'ottimizzazione del portfolio. Aldridge discute le sfide e le opportunità presentate dai dati sul volume infragiornaliero, sostiene l'incorporazione di fattori microstrutturali e propone un approccio graduale all'identificazione del rischio in tempo reale. Le sue idee contribuiscono a una comprensione più sfumata dell'ottimizzazione del portafoglio ed evidenziano il potenziale della realtà virtuale e dell'automazione per l'analisi dei dati. L'approccio globale di Aldridge incoraggia i gestori di portafoglio ad abbracciare i progressi tecnologici e sfruttare la grande quantità di dati disponibili per prendere decisioni di investimento informate.

Inoltre, Aldridge sottolinea l'importanza di considerare i fattori microstrutturali che spesso passano inosservati nell'ottimizzazione tradizionale del portafoglio. Incorporando fattori come ETF e flash crash nell'analisi, i gestori di portafoglio possono ottenere una comprensione più accurata delle dinamiche di mercato e dei rischi associati. Sfida l'idea che le sole matrici di correlazione siano sufficienti per l'analisi del rischio e propone un approccio più sofisticato che tenga conto di fattori microstrutturali indipendenti. Questo approccio ha il potenziale per migliorare i rendimenti del portafoglio e migliorare la performance aggiustata per il rischio.

Aldridge fa anche luce sull'intricato mondo del trading ad alta frequenza. Discute la distinzione tra strategie HFT aggressive e passive, evidenziando il loro impatto sulla liquidità e sulla volatilità del mercato. Mentre le strategie aggressive che comportano l'annullamento degli ordini possono erodere la liquidità e aumentare il rischio, le strategie passive incentrate sugli ordini limite e sul market-making possono fornire liquidità e ridurre la volatilità. Comprendere le dinamiche del trading ad alta frequenza e le sue implicazioni sull'allocazione del portafoglio è essenziale per i gestori di portafoglio a lungo termine.

Inoltre, Aldridge discute le sfide e le opportunità associate ai dati sul volume infragiornaliero. Con scambi multipli e intervalli di tempo ridotti, l'analisi e l'interpretazione efficaci di questi dati possono essere complesse. Tuttavia, Aldridge vede questa come un'opportunità per l'innovazione e ulteriori ricerche. Cita il Security Information Processor (SIP) gestito dalla SEC, che aggrega gli ordini limite di varie borse per determinare il miglior affare e la migliore offerta. Tuttavia, riconosce che riconciliare e risolvere i problemi tra i diversi scambi rimane una sfida.

La presentazione di Aldridge sottolinea inoltre l'importanza dell'utilizzo dei fattori come forma di difesa nell'ottimizzazione del portafoglio. Considerando vari fattori oltre alle tradizionali caratteristiche di rischio-rendimento, i gestori di portafoglio possono ottenere informazioni più approfondite e migliorare il loro processo decisionale. Fattori come la capitalizzazione di mercato, il beta, il prezzo e la volatilità infragiornaliera possono fornire informazioni preziose per l'ottimizzazione dei portafogli a lungo termine.

Infine, Aldridge tocca il potenziale della realtà virtuale e dell'automazione nell'analisi dei dati. Questi progressi tecnologici offrono nuove possibilità per analizzare dati finanziari complessi e acquisire una comprensione più profonda delle dinamiche di mercato. Sfruttando la potenza dell'automazione e sfruttando gli strumenti di realtà virtuale, i gestori di portafoglio possono migliorare le proprie capacità di analisi dei dati e prendere decisioni di investimento più informate.

In conclusione, la discussione di Irene Aldridge sull'impatto del trading ad alta frequenza e l'evoluzione del panorama finanziario fornisce spunti preziosi per i gestori di portafoglio a lungo termine. La sua esplorazione dell'automazione, dei big data e dell'apprendimento automatico evidenzia il potenziale di trasformazione di queste tecnologie nell'ottimizzazione del portafoglio. Incorporando fattori microstrutturali, utilizzando i fattori come forma di difesa e abbracciando i progressi tecnologici, i gestori di portafoglio possono adattarsi alle mutevoli dinamiche di mercato e sbloccare nuove opportunità per ottenere prestazioni di portafoglio ottimali a lungo termine.

  • 00:00:00 Irene Aldridge discute l'idea sbagliata secondo cui il trading ad alta frequenza non ha alcun impatto sui gestori di portafoglio a lungo termine. Mentre molti gestori affermano di poter detenere attività a lungo e quindi evitare l'impatto del trading ad alta frequenza, Aldridge sostiene che in realtà influisce sui gestori di portafoglio a lungo termine. Spiega in che modo i cambiamenti sistemici nel mercato e il modo in cui hanno un impatto su tutti possono portare a implicazioni per i gestori di portafoglio indipendentemente dal fatto che la loro strategia di investimento sia a lungo o breve termine. Aldridge ha un background in ingegneria elettrica, sviluppo software, gestione del rischio e finanza, e il suo lavoro include l'esplorazione di nuove aree come il rischio in tempo reale e l'ottimizzazione del portafoglio.

  • 00:05:00 In questa sezione, il relatore discute il passaggio all'automazione nel settore finanziario e come anche dieci anni fa la maggior parte del trading avveniva manualmente. Tuttavia, ora l'automazione è diventata prevalente non solo nel trading azionario, ma anche nel trading di cambi, reddito fisso e materie prime. L'obiettivo dell'automazione è sostituire il commercio umano e coloro che rimangono rilevanti nel settore hanno abbracciato i big data e l'apprendimento automatico per rimanere aggiornati. Tuttavia, alcuni commercianti erano restii a condividere le proprie conoscenze con i computer, temendo che ciò avrebbe portato all'automazione immediata e alla loro stessa obsolescenza.

  • 00:10:00 Irene Aldridge parla dell'evoluzione dei big data e di come vengono utilizzati nell'ottimizzazione del portafoglio. Nota che solo pochi anni fa la maggior parte degli istituti finanziari non aveva accesso a grandi quantità di dati, ma la situazione è cambiata e ora esistono database di dati strutturati e non strutturati che possono essere elaborati in modi diversi per ottenere informazioni utili. Uno di questi metodi è la decomposizione del valore singolare (SVD), che riduce grandi quantità di dati in forme più gestibili. Aldridge spiega come SVD viene utilizzato per automatizzare l'allocazione del portafoglio, che è un settore che è sull'orlo dell'automazione. Anche se alcune aziende utilizzano ancora i ricercatori per analizzare i dati mensili e prendere decisioni di investimento sulla base di tali dati, la tendenza è quella di incorporare quanti più dati possibili per informare le decisioni di investimento.

  • 00:15:00 Irene Aldridge discute il processo di riduzione delle dimensioni dei dati attraverso la scomposizione del valore singolare. Tracciando i valori singolari estratti attraverso questo processo, i ricercatori possono determinare quali vettori contengono informazioni significative e concentrarsi sul mantenere quei vettori considerando il resto come rumore. Questa tecnica può essere applicata a una varietà di set di dati, inclusi dati finanziari come capitalizzazione di mercato, beta, prezzo e volatilità intraday. Il set di dati ridotto risultante fornisce una guida affidabile per scopi di ricerca e aiuta a identificare fattori importanti per l'ottimizzazione del portafoglio a lungo termine.

  • 00:20:00 In questa sezione, Irene Aldridge discute i fattori comunemente utilizzati dagli analisti di portafoglio, come il prezzo e il rischio di mercato o il beta. La capitalizzazione di mercato e il rendimento da dividendi sono anche fattori utilizzati nell'ottimizzazione del portafoglio che sono inclusi nel quadro utilizzato da società come MSCI, Barra e altri. Aldridge spiega come stimano l'attività istituzionale utilizzando big data sui dati tick e cercando modelli specifici nei dati. L'attività istituzionale è importante perché è un segnale visibile per i partecipanti al mercato, che può portare all'assalto di altri partecipanti al mercato, causando un aumento del volume dell'ordine e determinando l'esecuzione favorevole dell'ordine.

  • 00:25:00 Irene Aldridge discute la differenza tra strategie HFT aggressive e passive, che hanno entrambe un impatto sulla liquidità. Le strategie HFT aggressive possono essere guidate dall'alfa e comportare molte cancellazioni di ordini, che erodono la liquidità e contribuiscono al rischio, mentre le strategie HFT passive, che comportano ordini puramente limite come il market-making, possono ridurre la volatilità fornendo più liquidità. Gli investitori istituzionali preferiscono un prezzo medio ponderato per il volume, mentre i prezzi medi ponderati per il tempo sono ancora utilizzati in alcuni mercati come i cambi dove il volume non è sempre disponibile. Nel complesso, l'HFT è un argomento complesso che presenta sia vantaggi che rischi.

  • 00:30:00 In questa sezione, Irene Aldridge discute la struttura delle colonne di dati e le sfide che derivano dai dati sui volumi intraday, dato l'elevato numero di scambi, la riduzione degli intervalli di tempo delle modifiche e il problema di trovare il miglior business e migliore offerta tra più scambi. Nonostante le sfide, ritiene che i dati sui volumi intraday possano essere suddivisi in molti modi diversi e rappresentino un'opportunità per l'innovazione e ulteriori ricerche. Cita anche il Security Information Processor (SIP) gestito dalla SEC che aggrega gli ordini limite da più scambi e determina il miglior business e la migliore offerta, ma osserva che riconciliare e risolvere i problemi tra i diversi scambi è ancora una sfida.

  • 00:35:00 Il relatore spiega che mentre i gestori di portafoglio a lungo termine sono principalmente interessati alle caratteristiche di rischio-rendimento e non si preoccupano dell'esecuzione, ci sono molte microstrutture e fattori di rischio completamente inesplorati che potrebbero essere utilizzati come input, come così come molti dati che potrebbero fornire nuove informazioni e approfondimenti. Propongono un approccio graduale che prevede l'utilizzo della decomposizione del valore singolare per prevedere le prestazioni in base ai rendimenti precedenti e l'utilizzo di big data per identificare e affrontare i rischi in tempo reale. L'oratore osserva inoltre che ci sono molti ordini di ping e altre complessità negli scambi che non sono sempre ovvi per i trader umani, ma possono essere identificati e sfruttati utilizzando algoritmi.

  • 00:40:00 In questa sezione, Irene Aldridge discute i limiti dell'ottimizzazione tradizionale del portafoglio per gli investimenti a lungo termine e introduce un nuovo approccio che integra la microstruttura e altri fattori di mercato nel processo di ottimizzazione. Spiega come fattori come gli ETF e i flash crash possono sconvolgere il mercato e come le matrici di correlazione potrebbero non essere sufficienti per l'analisi del rischio. Considerando i fattori microstrutturali che sono indipendenti dai movimenti di mercato più ampi, Aldridge propone un approccio più sfumato all'ottimizzazione del portafoglio che può migliorare i rendimenti e gli indici di Sharpe. Nota che il suo approccio è trattato in modo più dettagliato nel suo libro e risponde alle domande del pubblico sul trading ad alta frequenza.

  • 00:45:00 Irene Aldridge spiega la persistenza del trading ad alta frequenza nell'arco di una giornata e come influisce sull'allocazione del portafoglio a lungo termine. Nota che mentre il volume di trading ad alta frequenza intraday può variare da 0 a 100, nel tempo è stato piuttosto stabile per Google, ad esempio, con un intervallo del 36-42%. Questa stabilità persiste anche per altri stock. Il trading ad alta frequenza ha un costo inferiore quando si scambiano azioni a prezzi più alti e c'è una percentuale inferiore del volume di trading ad alta frequenza per le penny stock. Inoltre, i trader ad alta frequenza tendono a evitare azioni con dividendi elevati a causa della complessità della codifica. Il trading aggressivo ad alta frequenza è quello che utilizza ordini di mercato o ordini limite aggressivi vicini al prezzo di mercato.

  • 00:50:00 Irene Aldridge spiega il ciclo di vita di tre anni di una strategia quantitativa, dove nel primo anno il quant porta una strategia di successo dal suo lavoro precedente e guadagna un buon bonus, nel secondo anno prova a innovare ma molte persone fanno fatica a produrre una strategia di successo, e nel terzo anno, se trovano qualcosa di buono, possono guadagnare un buon bonus, altrimenti se ne vanno e portano la loro strategia precedente in un nuovo negozio. Ciò contribuisce alla concentrazione di strategie di trading ad alta frequenza simili, che potrebbero essere ottimizzate o leggermente modificate e spesso eseguite quasi contemporaneamente. Aldridge ritiene che il trading ad alta frequenza sia buono e non scusabile in quanto è automazione, proprio come i robot che puliscono i pavimenti o un sistema domotico che controlla il riscaldamento e il raffreddamento.

  • 00:55:00 Irene Aldridge, presidente e amministratore delegato di Able Alpha Trading, discute il potenziale della realtà virtuale e dell'automazione per l'analisi dei dati. Tocca anche l'utilità dei portafogli e dei fattori basati su beta, citando l'esempio dell'acquisto di un paio di calzini rispetto all'acquisto di un computer Dell e di come i cambiamenti nella beta influenzino i loro prezzi in modo diverso. Sottolinea l'importanza di normalizzare i resi e affronta il problema della casualità nei giorni lavorativi. Infine, Aldridge copre l'uso dei fattori come forma di difesa e suggerisce che l'uso dei fattori può essere divertente.

  • 01:00:00 In questa sezione, Aldridge discute l'uso di una matrice computerizzata per determinare l'importanza o il coefficiente di ciascun titolo in un portafoglio. Le righe della matrice rappresentano ogni stock, con la prima riga che rappresenta le mele e le altre righe che rappresentano i dati di mercato per diversi stock. Incorporando la varianza, la covarianza e la contrazione, la matrice può incorporare il rendimento e apportare modifiche per raggiungere un risultato più specifico. Questo viene fatto trovando X-mas nel ritorno dei giorni precedenti e prevedendo da lì. Sebbene il modello di giocattolo descritto sia solo un esempio di base, mostra come una matrice di computer può essere utilizzata per ottimizzare un portafoglio.
 

Nozioni di base sul trading quantitativo



Nozioni di base sul trading quantitativo

In questo video sulle basi del trading quantitativo, il trader algoritmico Shaun Overton discute le sfide e le opportunità legate al trading algoritmico. Overton spiega che la raccolta, l'analisi e il trading dei dati sono i tre semplici problemi coinvolti nel trading algoritmico, sebbene il processo possa complicarsi a causa della ricerca di dati di alta qualità e di un'analisi corretta. Può essere difficile selezionare la piattaforma giusta con buoni dati e funzionalità per raggiungere gli obiettivi del trader, con le piattaforme più popolari MetaTrader, NinjaTrader e TradeStation, a seconda del tipo di trading che si preferisce. Overton discute anche della dura realtà di quanto sia facile far saltare in aria i conti quando si fa trading nel mercato live e quanto sia importante gestire il rischio. Inoltre, spiega come i trader quantitativi possono prevedere movimenti troppo estesi nel mercato e discute l'impatto delle guerre valutarie.

Il video "Nozioni di base sul trading quantitativo" su YouTube copre varie strategie per il trading algoritmico, tra cui l'analisi del sentiment e le strategie a lungo termine basate sulle linee dei grafici; tuttavia, i rendimenti maggiori si ottengono durante eventi e tendenze di grande coda. I partecipanti al video discutono di diverse piattaforme per il backtesting, delle sfide dell'integrazione di più piattaforme per l'analisi del trading e del crescente interesse per la formalizzazione e l'automazione delle strategie di trading. Alcuni trader a lungo termine cercano l'automazione poiché sono nel gioco da molto tempo e NinjaTrader per i linguaggi di programmazione è consigliato ma ha dei limiti.

  • 00:00:00 Il trader algoritmico Shaun Overton spiega i tre semplici problemi coinvolti nel trading algoritmico: raccolta dati, analisi e trading. Tuttavia, il processo può complicarsi a causa di ostacoli come la ricerca di dati di alta qualità e analisi adeguate, soprattutto perché il trading richiede un attento esame dei dati. Il trading con opzioni gratuite non è raccomandato in quanto potrebbero contenere duplicati o lacune nei dati. Inoltre, l'utilizzo di opzioni a pagamento è fuori dalla portata del trader al dettaglio in quanto può costare migliaia di dollari per strumento. Tuttavia, il trading può essere semplificato utilizzando piattaforme che offrono software e API broker.

  • 00:05:00 Il relatore discute le diverse opzioni software disponibili per l'analisi dei dati e l'inserimento di operazioni. Le piattaforme più popolari per il forex trading sono MetaTrader, NinjaTrader e TradeStation, a seconda del tipo di trading che si preferisce. MetaTrader è in modo schiacciante il più popolare e ci sono più di mille broker in tutto il mondo che lo offrono. L'oratore spiega che l'utilizzo di una piattaforma predefinita come queste opzioni rende il trading e l'analisi dei dati più semplici ed evita la necessità di ricodificare l'analisi più volte quando arriva il momento di fare trading. L'oratore esamina anche i diversi linguaggi di programmazione utilizzati da ciascuna piattaforma.

  • 00:10:00 Il relatore discute diverse piattaforme per il trading quantitativo e spiega come Multicharts è diventato popolare copiando la piattaforma e il linguaggio di TradeStation. Tuttavia, ci sono differenze tra le lingue e non è sempre completamente compatibile. Il relatore parla anche dell'importanza dei dati nel trading quantitativo e delle sfide che accompagnano ciascuna piattaforma. Osserva che MetaTrader è semplice da usare ma non abbastanza sofisticato per analisi più complesse e che i dati forniti sono spesso di scarsa qualità. Nel complesso, il relatore sottolinea l'importanza di selezionare attentamente una piattaforma con buoni dati e funzionalità che soddisfino gli obiettivi del trader.

  • 00:15:00 Shaun Overton discute le sfide della raccolta e archiviazione dei dati per le strategie di trading quantitativo. Spiega le difficoltà nel tentativo di archiviare anni di dati di test e le limitazioni che i broker pongono sull'ottenimento di dati a causa delle limitazioni del server. Osserva che mentre MetaTrader offre dati gratuiti, non si tratta di dati di alta qualità, mentre NinjaTrader fornisce buoni dati ma ha una ripida curva di apprendimento da impostare. Mette in guardia anche sui pericoli della programmazione di strategie specifiche per un determinato broker in quanto sposa il trader con quel particolare broker, rendendo difficile il passaggio se non sono soddisfatti. Elenca i motivi per cui i trader potrebbero essere arrabbiati con un broker, inclusi un cattivo servizio e una cattiva esecuzione.

  • 00:20:00 Shaun Overton spiega alcuni dei problemi e dei giochi che i broker giocano per fare soldi con i trader e le loro operazioni. I broker possono manipolare i prezzi e le negoziazioni di mercato per costringere i trader a pagare di più per le loro negoziazioni mostrando un prezzo e quindi facendo accettare ai trader un prezzo peggiore. Inoltre, un trader può ricevere una cattiva esecuzione a causa di una scarsa latenza o di un errore del software. Attualmente, il problema più grande con il trading algoritmico è la corruzione istituzionalizzata e il modo in cui le istituzioni possono rubare denaro ai trader a causa di incidenti tecnologici, così come Dark Pools e altre sedi di trading che hanno le proprie regole per manipolare le negoziazioni.

  • 00:25:00 Il relatore discute i limiti delle piattaforme specifiche del broker per il trading quantitativo. Sebbene possano essere efficaci per strategie estremamente semplici, hanno dei limiti e non possono supportare nulla di più sofisticato. L'oratore consiglia piattaforme stabili come NinjaTrader e MultiCharts, che hanno una buona qualità di ricerca e consentono la programmazione personalizzata e le regolazioni della GUI. Tuttavia, il relatore avverte che queste piattaforme non sono adatte alla gestione di portafogli o alla gestione di fondi in quanto non sono in grado di comunicare con più grafici e richiedono molto lavoro manuale.

  • 00:30:00 Shaun Overton discute la dura realtà di quanto sia facile far saltare in aria i conti quando si fa trading nel mercato live, dove il 90-95% dei conti viene chiuso entro 6 mesi o un anno intero. Ci sono 2 modi in cui i broker fanno soldi, con commissioni o rischio, e spesso il modo più popolare e redditizio è assumendosi perdite di trading. I trader regolari guadagnano quando la volatilità è bassa, ma quando è alta vengono decimati. Si parla di gestione del rischio, ma per la maggior parte delle persone è solo aria fritta e continuano a perdere denaro non gestendo il proprio rischio.

  • 00:35:00 Shaun discute di come la volatilità influisca sulle strategie di trading quantitativo e di come i trader al dettaglio tendano a sbagliarsi nelle loro previsioni di mercato. Spiega come il rapporto tra posizioni lunghe e corte può essere monitorato dai broker con accesso ai conti dei clienti e come queste informazioni possono essere utilizzate per prevedere movimenti troppo estesi. Overton osserva che queste informazioni stanno diventando sempre più ampiamente disponibili, con siti Web come MyFxBook e OANDA che pubblicano dati sul posizionamento di mercato. Tuttavia, avverte che sebbene queste informazioni possano essere una miniera d'oro per i broker, potrebbero non fornire un flusso di cassa costante e potrebbero causare periodi di grandi perdite.

  • 00:40:00 Shaun Overton discute il potenziale per i trader quantitativi di esaminare i fondi dei clienti delle principali banche per ideare strategie long e short basate sulla percentuale di operazioni che vanno in una certa direzione. Commenta anche lo scetticismo degli investitori al dettaglio che partecipano al mercato azionario, in particolare alla luce delle recenti notizie negative, che hanno portato a un ritiro di miliardi di dollari dall'ultimo crollo. Overton cita anche una recente notizia sulla CNBC riguardante i grandi gestori di fondi e il loro impatto sulle azioni delle grandi aziende, dimostrando il potere del denaro istituzionale nel muovere il mercato.

  • 00:45:00 Si discute di come il trading istituzionale, specialmente nel forex, potrebbe non essere così influente sul mercato come il trading al dettaglio a causa della dimensione media del conto dei trader. Tuttavia, valutazioni più ampie e maggiori quantità di denaro scambiate portano più persone a scherzare con i prezzi, e anche piccoli eventi come il trading ubriaco potrebbero avere un impatto sul mercato. Il principale motore delle valute sono i tassi di interesse, ed è una guerra valutaria in cui tutti vogliono un tasso di interesse pari a zero, rendendo più difficile determinare quale valuta del paese è la più debole. Infine, la coppia di valute del Giappone, Dollar Yen, viene analizzata in termini della sua storia e di come i suoi prezzi in calo potrebbero essere correlati all'indebolimento del dollaro e al rafforzamento dello yen.

  • 00:50:00 Shaun Overton parla dell'impatto delle guerre valutarie sugli esportatori. Spiega come gli esportatori come Toyota subiscono un forte impatto quando il valore della valuta in cui operano aumenta di valore. Overton afferma che attualmente è in corso una guerra valutaria tra le principali valute, in cui i paesi stanno cercando di svalutarsi, con tutti che competono per essere zero. Pertanto, i trader devono speculare su chi farà il peggior lavoro nel distruggere una valuta, poiché saranno i migliori in questo ambiente. Overton ritiene che il dollaro sia attualmente un disastro, ma finora il miglior disastro. Anche i rischi e gli eventi sociali specifici di un paese, come l'11 settembre e il disastro di Fukushima, possono avere un impatto sui prezzi delle valute.

  • 00:55:00 I relatori hanno discusso del trading in mercati sottili e valute esotiche. È stato detto che per il trading algoritmico sono necessarie liquidità e uno spread sottile, il che rende difficile negoziare valute meno popolari come il rand sudafricano o la lira turca. Inoltre, lo spread di queste valute può essere 8 o 9 volte superiore a quello che costa negoziare l'euro contro il dollaro, rendendo difficile realizzare un profitto. Per quanto riguarda le strategie per coloro che hanno meno di 50k nei loro conti, i relatori menzionano l'importanza di concentrarsi su cose come il rapporto Impegni dei commercianti nei mercati dei futures per ottenere informazioni sulle posizioni di mercato.

  • 01:00:00 Un gruppo discute varie strategie per il trading algoritmico, inclusa l'analisi del sentiment e una semplice strategia a lungo termine basata sulle linee del grafico. La sfida con il trading è capire la distribuzione dei rendimenti poiché la maggior parte delle volte è solo rumore. Tuttavia, i rendimenti maggiori si ottengono durante eventi e tendenze di grande coda. Pertanto, le migliori strategie non fanno costantemente soldi ma afferrano le opportunità quando ci sono. Nonostante il desiderio di segnali e azione, è meglio lasciare che il mercato faccia quello che sta per fare. Viene citato anche Quantopian, un programma che analizza i dati di mercato.

  • 01:05:00 In questa sezione, i partecipanti al video YouTube "Nozioni di base sul trading quantitativo" discutono delle diverse piattaforme che utilizzano per il backtest e l'ottimizzazione, nonché delle sfide dell'integrazione di più piattaforme per l'analisi del trading e lo sviluppo della strategia. Mentre alcuni partecipanti notano che Quantopian fornisce una piattaforma per l'analisi individuale e sta negoziando contratti con broker per risolvere potenzialmente le sfide di integrazione della piattaforma, altri discutono dei limiti di piattaforme come NinjaTrader e delle difficoltà di integrarle con altre piattaforme, con alcuni che sottolineano il fatto che sono più adatti per il trading manuale o come semplici strumenti di backtesting. Inoltre, Shaun Overton osserva che la sua attività si basa sulla formalizzazione e l'automazione delle strategie dei trader, con i partecipanti che hanno notato che sia i singoli trader che i mercati stanno mostrando un crescente interesse per la formalizzazione e l'automazione delle loro strategie di trading.

  • 01:10:00 I trader che partecipano a un seminario di trading quantitativo chiedono i vantaggi dell'automazione di determinate strategie di trading. Shaun Overton, il relatore, osserva che alcuni trader che sono nel gioco da 10, 20 o anche 30 anni vogliono semplicemente automatizzare le loro strategie in modo da non doverle più monitorare tutto il giorno. Quando si discute di linguaggi di programmazione specifici per il trading, Overton sostiene NinjaTrader perché funziona su C Sharp, ma osserva che ci sono limitazioni a ciò che può essere fatto al suo interno.
Basics of Quantitative Trading
Basics of Quantitative Trading
  • 2013.02.26
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton speaks to the meetup group Dallas Algorithmic Traders about quantitative trading. Most members of the audience h...
 

Cos'è un quant trader?



Cos'è un quant trader?

"Cos'è un quant trader?" è un video in cui Michael Halls-Moore approfondisce il mondo del quant trading, spiegando come la matematica e le statistiche vengono utilizzate per sviluppare strategie di trading e analizzare le inefficienze del mercato. Sebbene i fondi quantitativi si concentrino principalmente su strategie a breve termine, il relatore sottolinea che vengono utilizzati anche approcci a bassa frequenza e automatizzati. I trader istituzionali danno la priorità alla gestione del rischio, mentre i trader al dettaglio sono guidati dai profitti. Il rilevamento efficace del regime di mercato è cruciale ma impegnativo a causa di eventi casuali nel mercato. Si consiglia ai trader quantitativi di non fare affidamento esclusivamente su un singolo modello, ma di ricercarne e testarne costantemente di nuovi per tenere conto delle dinamiche di mercato note e sconosciute. Nonostante i rischi connessi, i trader quantitativi di successo possono ottenere un impressionante rendimento annuo del 35% sulle commissioni.

Nel video, Michael Halls-Moore fornisce una prospettiva penetrante sul concetto di "quant trader". Spiega che i trader quantistici impiegano tecniche matematiche e statistiche nel campo della finanza, utilizzando metodi computazionali e statistici. Il loro lavoro comprende un'ampia gamma di attività, dalla programmazione delle strutture di trading alla conduzione di ricerche approfondite e allo sviluppo di solide strategie di trading. Sebbene le regole di acquisto e vendita svolgano un ruolo, non sono l'unico obiettivo, poiché i commercianti quantitativi operano all'interno di un sistema più ampio in cui i generatori di segnali sono solo un componente.

I fondi quantistici si impegnano in genere nel trading ad alta frequenza e si sforzano di ottimizzare la tecnologia e le microstrutture all'interno degli asset di mercato. I tempi coinvolti nel quant trading possono variare notevolmente, da microsecondi a settimane. I trader al dettaglio hanno un'opportunità significativa nell'adottare strategie di stile a frequenza più elevata.

Contrariamente alla credenza popolare, il trading quantitativo non si concentra esclusivamente sul trading ad alta frequenza e sull'arbitraggio. Incorpora anche strategie a bassa frequenza e automatizzate. Tuttavia, a causa del loro approccio scientifico di capitalizzare le inefficienze fisiche del sistema, i fondi quantitativi si concentrano prevalentemente su strategie a breve termine. Il relatore sottolinea l'importanza di avere una miscela di background scientifici e commerciali per prosperare nel campo del trading quantitativo.

Una notevole distinzione tra trader al dettaglio e istituzionali risiede nel loro approccio alla gestione del rischio. I trader al dettaglio sono principalmente guidati da motivazioni di profitto, mentre i trader istituzionali danno la priorità alla gestione del rischio, anche se ciò significa sacrificare potenziali rendimenti. I trader istituzionali adottano una mentalità orientata al rischio e sottolineano la due diligence, gli stress test e l'implementazione di polizze assicurative al ribasso per mitigare efficacemente i rischi.

La gestione del rischio coinvolge varie tecniche, come l'adeguamento della leva finanziaria in base all'equità del conto utilizzando quadri matematici come il criterio di Kelly. I trader più prudenti optano per la riduzione dei prelievi per ottenere un tasso di crescita controllato. I principali indicatori di rischio come il VIX vengono utilizzati per valutare la volatilità futura. In queste operazioni, il sistema di gestione del rischio ha più importanza del sistema di entrata. Mentre gli stop loss sono impiegati nel trend following, le strategie di mean reversion richiedono la rivalutazione e l'esplorazione di diversi scenari e dati storici per la pianificazione del drawdown. Prima di implementare gli algoritmi di trading, vengono condotte fasi di backtesting per gestire efficacemente i fattori di rischio.

Il video approfondisce il significato di filtrare le strategie di trading e utilizzare il backtesting come strumento per filtrarle piuttosto che metterle direttamente in produzione. Sottolinea l'importanza di aspettarsi riduzioni peggiori durante il cammino in avanti e di utilizzare meccanismi di filtraggio per determinare l'idoneità di una strategia per l'implementazione. La conversazione approfondisce quindi la convinzione di Nassim Nicholas Taleb nelle code grasse ed esplora come la tecnologia di apprendimento automatico può essere impiegata per applicare strategie di range trading e trend trading, consentendo il rilevamento del regime di mercato.

Il rilevamento efficace del regime di mercato è un aspetto critico della finanza quantitativa. Tuttavia, pone delle sfide a causa della sua dipendenza da eventi casuali, come il calo dei tassi di interesse e le tendenze del mercato. Le aziende più sofisticate tengono traccia dei dati fondamentali e li incorporano nei loro modelli per migliorare il rilevamento del regime di mercato. Quando si fa trading, la selezione di azioni o ETF dipende dal mercato specifico e la scelta degli asset giusti può essere un compito complesso. Il relatore sottolinea che una combinazione di modelli matematici e fondamenti di mercato è fondamentale per una difesa efficace contro gli eventi Black Swan, poiché precedenti periodi di elevata volatilità possono fornire spunti per prevedere la volatilità futura e i cambiamenti del mercato.

Il video esplora ulteriormente i potenziali rendimenti e i rischi associati al quant trading. I trader quantistici hanno il potenziale per guadagnare un impressionante rendimento annuo del 35% sulle commissioni, soprattutto se abbinati a un solido background formativo, come un dottorato di ricerca, e un processo di gestione efficiente. Tuttavia, i quant ad alta frequenza possono incontrare problemi quando si verificano cambiamenti nell'hardware o nello scambio sottostante, portando potenzialmente a arresti anomali del sistema.

Nonostante i rischi connessi, il raggiungimento di un rendimento consistente dal 15% al 20% sfruttando opportunità redditizie a lungo termine è considerato favorevole. I trader quantistici non si affidano a un singolo algoritmo magico o si fanno prendere dal panico di fronte ai problemi. Invece, approfondiscono le proprietà statistiche che possono essere complesse da analizzare ma si preparano in anticipo per affrontare potenziali sfide.

Il video sottolinea l'importanza di evitare l'eccessivo affidamento su un singolo modello nel trading quantitativo. I modelli non possono prevedere con precisione tutti gli eventi futuri, come evidenziato dai crolli storici di Wall Street e dai fallimenti degli investimenti derivanti da carenze del modello. È essenziale per i trader quantitativi ricercare e testare continuamente nuovi modelli, valutandone le prestazioni. I periodi di drawdown sono parte integrante del percorso di trading e i trader devono essere preparati a percorrerli.

In conclusione, mentre alcuni trader possono concentrarsi eccessivamente sulla microgestione dei loro modelli, è fondamentale capire se un modello tiene conto di tutte le dinamiche di mercato, comprese le incognite sconosciute. I trader quantistici dovrebbero adottare un approccio multidimensionale, combinando modelli matematici con i fondamenti del mercato per ottenere una comprensione completa del comportamento del mercato. Perfezionando e diversificando costantemente le loro strategie, i quant trader possono aumentare le loro possibilità di successo in un panorama finanziario in continua evoluzione.

  • 00:00:00 In questa sezione, Michael Halls-Moore spiega il significato di "quant trader", che è qualcuno che usa la matematica o la statistica in finanza in modo computazionale e statistico. Questo può variare dalla programmazione di strutture di trading alla ricerca di trading hardcore e allo sviluppo di una strategia. L'importanza delle regole di acquisto e vendita non è così significativa come altri aspetti e i generatori di segnali sono solo una parte di un sistema più ampio. I fondi quantistici di solito si occupano di trading a frequenza più elevata e si concentrano sull'ottimizzazione della tecnologia e delle microstrutture all'interno degli asset di mercato. Il lasso di tempo tipico per i trader quantitativi varia da microsecondi a settimane e la più grande opportunità per il trader al dettaglio risiede nelle strategie di stile a frequenza più elevata.

  • 00:05:00 In questa sezione apprendiamo che il quant trading non riguarda solo il trading ad alta frequenza e l'arbitraggio, in quanto include anche strategie a bassa frequenza e automatizzate. Tuttavia, i fondi quantitativi generalmente si concentrano su strategie a breve termine a causa del loro approccio scientifico allo sfruttamento delle inefficienze fisiche nel sistema. L'oratore ritiene che avere un mix di background scientifico e commerciale sia fondamentale per avere successo nel trading quantitativo. Quando si tratta di gestione del rischio, nota una differenza culturale tra il commercio al dettaglio e quello istituzionale, dove quest'ultimo ha una mentalità orientata al rischio e sottolinea la due diligence, gli stress test e le polizze assicurative al ribasso.

  • 00:10:00 In questa sezione, il video discute i diversi approcci utilizzati dai trader al dettaglio e istituzionali per quanto riguarda la gestione del rischio. Mentre i trader al dettaglio sono principalmente orientati al profitto, i trader istituzionali si concentrano sulla gestione del rischio, anche se i potenziali rendimenti sono solo una frazione di ciò che è possibile. Il video menziona il criterio di Kelly come mezzo matematico per regolare la leva finanziaria in base all'equità del conto, con i trader più prudenti che optano per una diapositiva in cui riducono il loro drawdown per ottenere un tasso di crescita più controllato. Inoltre, gli indicatori di rischio anticipato come il VIX vengono utilizzati per vedere la volatilità futura. Il sistema di gestione del rischio è più importante del sistema di ingresso in queste negoziazioni, con gli stop loss utilizzati nel trend following, ma non nella mean reversion, dove i trader ripensano ed esplorano diversi scenari e storie per la pianificazione dei drawdown. Prima di iniziare a negoziare algoritmi, vengono condotte fasi di backtest per gestire i fattori di rischio.

  • 00:15:00 In questa sezione, l'intervistatore e il quant trader discutono dell'importanza di filtrare le strategie di trading e di come utilizzare il backtesting come mezzo per filtrare le strategie piuttosto che come mezzo per metterle in produzione. Sottolineano l'importanza di aspettarsi ribassi peggiori durante il cammino in avanti e di utilizzare un meccanismo di filtraggio per determinare se una strategia è adatta o meno all'implementazione. La conversazione si sposta quindi sulla convinzione di Taleb nelle code grasse e su come applicare strategie di range trading e trend trading in futuro utilizzando la tecnologia di apprendimento automatico per determinare i cambiamenti di regime del mercato.

  • 00:20:00 In questa sezione, il relatore sottolinea l'importanza di un'efficace rilevazione del regime di mercato nella finanza quantitativa. Il problema è che è difficile tenerlo a mente perché si basa su eventi puramente casuali, come il calo dei tassi di interesse e le tendenze del mercato. Sebbene rilevare i regimi di mercato sia complicato, le aziende più sofisticate monitoreranno i dati fondamentali e li incorporeranno nei loro modelli. Quando si fa trading, a seconda di cosa si sta negoziando, ci sono diversi numeri di azioni o ETF tra cui scegliere e selezionare quello giusto può essere complicato. Inoltre, l'oratore ritiene che la difesa del cigno nero dipenda dal mix di modelli matematici e fondamenti del mercato poiché la precedente orribile volatilità può consentire di prevedere la volatilità futura e i cambiamenti del mercato.

  • 00:25:00 In questa sezione, il video spiega i rendimenti che i quant trader possono aspettarsi e i rischi che comporta. Un quant trader può guadagnare un rendimento annuo del 35% sulle commissioni, con l'aiuto di un dottorato di ricerca e un processo di gestione efficiente. Tuttavia, i quant ad alta frequenza possono soffrire a causa di cambiamenti nell'hardware o nello scambio sottostante, causando il crash del loro sistema. Nonostante questi rischi, tornare dal 15 al 20% sfruttando qualcosa che è possibile fare a lungo termine è un buon ritorno. I trader quantistici non hanno un singolo algoritmo magico né si fanno prendere dal panico quando affrontano problemi. Ci si aspetta che esaminino alcune proprietà statistiche difficili da analizzare e per le quali prepararsi in anticipo.

  • 00:30:00 In questa sezione, il relatore discute di come affidarsi troppo a un singolo modello non sia consigliabile nel trading quantitativo poiché un modello non può prevedere con precisione tutti gli eventi futuri. Cita esempi di crolli classici di Wall Street e fallimenti di investimento principalmente a causa di carenze del modello. Il relatore sottolinea l'importanza della continua ricerca di nuovi modelli e del controllo delle loro prestazioni; tuttavia, si verificheranno sempre periodi di prelievo. In conclusione, mentre alcuni trader possono arrivare al punto di microgestire i loro modelli, è essenziale capire se il modello tiene conto di tutte le dinamiche di mercato o delle incognite sconosciute.
What is a quant trader?
What is a quant trader?
  • 2013.12.02
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton interviews Michael Halls-Moore, a quantitative developer. Mike jumped from postgraduate school straight into alg...
 

PyCon Canada 2015 - Karen Rubin: Costruire una strategia di trading quantitativo (Keynote)



PyCon Canada 2015 - Karen Rubin: Costruire una strategia di trading quantitativo (Keynote)

Continuando la discussione, Karen Rubin approfondisce i risultati e le intuizioni del suo studio sulle donne CEO nelle aziende Fortune 1000. L'analisi rivela che i CEO donne ottengono un rendimento del 68%, mentre i CEO uomini generano un rendimento del 47%. Tuttavia, Karen sottolinea che i suoi dati non dimostrano ancora che le donne CEO superino le loro controparti maschili. Considera questo studio come un concetto intrigante all'interno di società ad alto reddito e ad alta capitalizzazione di mercato.

Motivata dalle sue scoperte, Karen sottolinea l'importanza della diversità nel settore finanziario e tecnologico. Incoraggia più donne a unirsi al campo e partecipare alla definizione delle strategie di investimento. Ritiene che l'integrazione di idee come l'investimento in amministratori delegati donne possa contribuire alla creazione di un fondo diversificato e inclusivo.

Espandendo la discussione, Karen tocca altri fattori che possono influenzare il successo degli amministratori delegati, tra cui il sesso, il metodo di assunzione (interno o esterno) e persino il mese di nascita. Riconosce la teoria secondo cui le aziende possono nominare amministratori delegati donne quando l'organizzazione sta funzionando male e successivamente sostituirli con amministratori delegati uomini per raccogliere i frutti della ristrutturazione. Tuttavia, finora Karen non è stata in grado di arbitrare questa teoria. Inoltre, osserva che i prezzi delle azioni spesso subiscono un calo dopo l'annuncio di un CEO, anche se rimane incerta se questa tendenza differisca tra amministratori delegati donne e uomini.

In conclusione, Karen sottolinea che la costruzione di una strategia di trading quantitativa per i CEO comporta la considerazione di vari fattori e la conduzione di un'analisi approfondita. Sebbene il suo studio fornisca preziose informazioni sulle prestazioni delle donne CEO, sottolinea la necessità di ulteriori ricerche ed esplorazioni per ottenere una comprensione più completa delle dinamiche di genere nella leadership esecutiva e del suo impatto sui risultati degli investimenti.

  • 00:00:00 In questa sezione, la relatrice presenta se stessa e la sua esperienza con la scrittura di un algoritmo per investire nel mercato. In qualità di vicepresidente del prodotto presso Quantiacs, un hedge fund di crowdsourcing, aveva bisogno di scrivere un algoritmo per capire cosa stavano facendo i suoi utenti in modo da poter creare un software efficace per loro. Si è interessata a investire nelle donne CEO dopo aver letto il report sul genere del Credit Suisse e si è chiesta se fosse possibile costruire una strategia che guardasse storicamente alle donne CEO e vendesse quando non erano più CEO.

  • 00:05:00 In questa sezione, Karen Rubin parla dei primi passi che ha intrapreso nella costruzione di una strategia di trading quantitativa. Aveva bisogno di ottenere un elenco storico di tutte le donne CEO in un periodo di tempo specifico per creare una simulazione di ciò che è accaduto nel tempo. Karen spiega che l'acquisizione e la pulizia dei dati ha richiesto una notevole quantità di tempo durante le prime fasi del progetto, poiché ha dovuto cercare e analizzare manualmente le date di inizio e di fine di ciascun CEO e i simboli ticker corrispondenti. Parla anche delle sfide per garantire che i dati sui prezzi fossero accurati e puliti prima di analizzarli. Nonostante la piccola dimensione del campione, Karen ha continuato a portare avanti il suo studio.

  • 00:10:00 In questa sezione, Karen Rubin spiega il processo del suo back test nel trading algoritmico e come funziona la simulazione nella sua strategia. Simula la sua strategia come se stesse operando nel mercato reale esaminando i dati storici e prendendo decisioni di acquisto e vendita per lei in base al suo elenco di amministratori delegati donne. Confronta la sua prima versione dell'algoritmo con un benchmark che è l'S&P 500. Tuttavia, in seguito riscrive la sua strategia con l'assistenza del suo quant residente a causa della sua incapacità di considerare la leva finanziaria nella sua strategia precedente.

  • 00:15:00 In questa sezione del video, Karen Rubin spiega come ha ribilanciato la sua strategia di trading per garantire un portafoglio ponderato uguale per tutte le società. Il suo algoritmo compra e vende società e calcola il valore del suo portafoglio per assicurarsi che non stia perdendo denaro o non debba prendere in prestito denaro per fare acquisti in futuro. Discute anche del feedback ricevuto dalla comunità di Reddit e Hacker News che si chiedeva se la sua strategia dipendesse dai prezzi delle azioni di Yahoo e Alibaba. Ha rimosso Yahoo dalla sua strategia per testare questa teoria e ha scoperto che, sebbene abbia avuto un impatto sui rendimenti complessivi, non era l'unica causa di tali rendimenti.

  • 00:20:00 In questa sezione, il relatore discute su come evitare pregiudizi settoriali creando un portafoglio neutrale per settore. Dividendo l'importo del portafoglio per il numero di settori, ogni azienda all'interno di quel settore ottiene un importo uguale di investimento. Ad esempio, se Healthcare ha tre società, la loro allocazione sarebbe divisa in terzi, mentre Consumer Cyclical, che ha circa 20 società, otterrebbe ciascuna un ventesimo dell'importo totale assegnato al settore. I rendimenti risultanti dalla strategia dell'oratore sono del 275 percento, mentre il benchmark a pari ponderazione restituisce il 251 percento e l'S&P 500 restituisce il 122 percento. Mentre alcuni sostengono che i benchmark come l'S&P 500 non siano filosoficamente accurati in quanto le sue società non sono ugualmente ponderate, l'indice RSP Guggenheim Equal Weight S&P 500 fornisce un punto di riferimento migliore a scopo di confronto.

  • 00:25:00 In questa sezione, Karen Rubin discute le sfide per trovare il punto di riferimento giusto quando si investe in donne CEO. Sottolinea che mentre il benchmark Fortune 1000 sembra la scelta giusta, l'acquisto del suo elenco di componenti storici è costoso. Invece, crea Quanto 1000, un nuovo benchmark classificando tutte le società in base alle entrate e selezionando le prime 1000. Confrontando i rendimenti del suo algoritmo con Quanto 1000 e S&P 500, scopre che l'algoritmo ha sovraperformato gli altri due benchmark con un 43% differenza. Esplora anche un nuovo set di dati di Event Fessor sui cambiamenti del CEO, che le consente di creare strategie comparative tra CEO maschi e femmine. I risultati mostrano che una strategia che investe in donne CEO alla data in cui entrano nella loro posizione e si ferma alla data in cui se ne vanno ha reso il 28% su un periodo di sette anni, rispetto ai CEO uomini, che hanno reso il 44%.

  • 00:30:00 In questa sezione, Karen descrive in dettaglio i risultati del suo studio sulle donne CEO nelle aziende Fortune 1000. L'analisi ha mostrato che gli amministratori delegati donne restituiscono il 68% mentre gli amministratori delegati uomini restituiscono il 47%. Tuttavia, Karen ritiene che i suoi dati non mostrino che le donne CEO stiano ancora superando le loro controparti maschili. Ritiene che questo studio fornisca un'idea interessante sulle donne CEO in società ad alto reddito e ad alta capitalizzazione di mercato. Karen vuole incoraggiare la diversità nel settore finanziario e tecnologico e invita più donne a unirsi al campo. Crede nell'importanza di portare idee come investire in amministratori delegati donne per creare un fondo diversificato.

  • 00:35:00 In questa sezione, il relatore discute vari fattori che possono influenzare il successo dei CEO, tra cui il genere, le assunzioni interne o esterne e il mese di nascita. Affronta anche la teoria secondo cui le aziende introdurranno amministratori delegati donne quando si comportano male e poi le sostituiranno con amministratori delegati uomini per raccogliere i frutti della ristrutturazione. Tuttavia, non è stata in grado di arbitrare questa teoria. Inoltre, osserva che i prezzi delle azioni spesso scendono dopo l'annuncio di un CEO, ma non è sicura che questa tendenza sia diversa per le donne CEO rispetto agli uomini CEO. Nel complesso, ci sono molti fattori da considerare quando si costruisce una strategia di trading quantitativa per i CEO.
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
  • 2015.11.24
  • www.youtube.com
PyCon Canada 2015: https://2015.pycon.ca/en/schedule/67/Talk Description:Upon joining Quantopian, in order to understand her users better, Karen Rubin embark...
 

Webinar sull'apprendimento automatico per il trading quantitativo con il Dr. Ernie Chan



Webinar sull'apprendimento automatico per il trading quantitativo con il Dr. Ernie Chan

Il dottor Ernie Chan, una figura di spicco nel settore finanziario, condivide le sue intuizioni ed esperienze con l'apprendimento automatico nel trading. Inizia riflettendo sui suoi primi tentativi di applicare l'apprendimento automatico al trading e riconosce che inizialmente non ha prodotto risultati positivi. Il dottor Chan sottolinea l'importanza di comprendere i limiti dell'apprendimento automatico nel trading, in particolare nel trading di futures e indici, dove i dati potrebbero essere insufficienti.

Tuttavia, sottolinea il potenziale dell'apprendimento automatico nella generazione di strategie di trading redditizie se applicato a singoli titoli tecnologici, dati del portafoglio ordini, dati fondamentali o fonti di dati non tradizionali come le notizie. Per affrontare i limiti della disponibilità dei dati e il pregiudizio dello snooping dei dati, il Dr. Chan suggerisce di utilizzare tecniche di ricampionamento come il sovracampionamento o il bagging. Queste tecniche possono aiutare a espandere il set di dati, ma è fondamentale preservare l'autocorrelazione seriale nei dati delle serie temporali quando li si utilizza per le strategie di trading.

La selezione delle funzionalità gioca un ruolo fondamentale nelle applicazioni di machine learning di successo nel trading. Il dottor Chan sottolinea l'importanza di ridurre la distorsione del campionamento dei dati selezionando caratteristiche o predittori pertinenti. Spiega che mentre molte persone credono che avere più funzionalità sia meglio, nel trading un set di dati ricco di funzionalità può portare a false autocorrelazioni e scarsi risultati. Discute tre algoritmi di selezione delle caratteristiche: selezione delle caratteristiche in avanti, alberi di classificazione e regressione (CART) e foresta casuale, che aiutano a identificare le variabili più predittive.

Il dottor Chan approfondisce l'algoritmo di classificazione delle macchine vettoriali di supporto (SVM), che mira a prevedere i rendimenti futuri di un giorno e la loro natura positiva o negativa. SVM trova un iperpiano per separare i punti dati e potrebbe richiedere trasformazioni non lineari per una separazione efficace. Tocca anche altri approcci di apprendimento automatico, come le reti neurali, ma ne evidenzia i limiti nell'acquisizione di caratteristiche rilevanti e la loro inadeguatezza per il trading a causa della natura non stazionaria dei mercati finanziari.

Il webinar sottolinea inoltre l'importanza di una funzione target personalizzata in una strategia di trading. Il dottor Chan consiglia tecniche come la regressione graduale, gli alberi decisionali e la regressione set-wise per sviluppare modelli predittivi. Sottolinea l'importanza di ridurre la radice quadrata del numero di operazioni per ottenere un'elevata precisione nella protezione dei rendimenti. L'indice di Sharpe è presentato come un benchmark efficace per valutare l'efficacia della strategia, con un rapporto di due o superiore considerato favorevole.

Il dottor Chan fornisce preziose informazioni sull'applicazione dell'apprendimento automatico nel settore finanziario, evidenziandone il potenziale in determinate aree e mettendo in guardia contro i suoi limiti. Sottolinea l'importanza della selezione delle funzionalità, del ricampionamento dei dati e della selezione di una funzione target appropriata per applicazioni di machine learning di successo nel trading quantitativo.

  • 00:00:00 In questa sezione, il Dr. Ernie Chan condivide il suo background e le sue esperienze con l'apprendimento automatico nel settore finanziario. Discute di come non sia riuscito ad applicare l'apprendimento automatico al trading nonostante la sua esperienza nel settore e lavorando per aziende famose. Il dottor Chan condivide che l'obiettivo del discorso è spiegare le insidie dell'apprendimento automatico e perché non funziona nel trading, nonché come può funzionare nel trading. Osserva che quando ha iniziato a utilizzare l'apprendimento automatico nel trading, ha commesso l'errore di pensare che avrebbe funzionato sulle barre giornaliere e di utilizzare indicatori tecnici come input, che alla fine non hanno prodotto risultati positivi.

  • 00:05:00 In questa sezione, il Dr. Ernie Chan discute i limiti dell'utilizzo di algoritmi di apprendimento automatico su futures e trading di indici a causa di dati insufficienti e del rischio di bias di snooping dei dati. Ritiene che l'apprendimento automatico abbia più potenziale nella generazione di strategie di trading redditizie se applicato a singoli titoli tecnologici, dati del portafoglio ordini, dati fondamentali o dati non tradizionali come le notizie. Per superare la limitazione dei dati insufficienti e il pregiudizio dello snooping dei dati, il Dr. Chan suggerisce di utilizzare tecniche di ricampionamento, come il sovracampionamento o il bagging. Sebbene il ricampionamento possa espandere il set di dati, è necessario prestare un'attenta considerazione per preservare l'autocorrelazione seriale nei dati delle serie temporali quando si utilizzano queste tecniche per le strategie di trading.

  • 00:10:00 In questa sezione, il Dr. Chan discute l'uso dei trigrammi nell'apprendimento automatico, che consente l'uso di più giorni come input invece di un solo giorno per preservare l'autocorrelazione. Sottolinea inoltre l'importanza di ridurre la distorsione del campionamento dei dati, che può essere ottenuta riducendo il numero di caratteristiche o predittori. Mentre molte persone pensano che avere più funzionalità sia meglio, non è così nel trading poiché un set di dati ricco di funzionalità è una maledizione a causa dell'autocorrelazione spuria tra le funzionalità e l'obiettivo. Pertanto, la selezione delle funzionalità è fondamentale e gli algoritmi di apprendimento automatico che supportano la selezione delle funzionalità sono ideali per il trading. Il Dr. Chan evidenzia tre di questi algoritmi, tra cui la regressione graduale, le foreste casuali e la regressione LASSO. Avverte che la rete neurale e gli algoritmi di deep learning, che non selezionano le funzionalità ma prendono tutto e le mescolano insieme, non sono l'ideale per il trading.

  • 00:15:00 In questa sezione, il Dr. Ernie Chan discute tre diversi algoritmi di selezione delle caratteristiche: selezione delle caratteristiche in avanti, alberi di classificazione e regressione (CART) e foresta casuale. La selezione delle funzionalità in avanti implica l'aggiunta di funzionalità ai modelli di regressione lineare una alla volta finché l'algoritmo non identifica quali migliorano la prevedibilità. D'altra parte, CART è simile a un albero decisionale e opera in modo gerarchico con condizioni imposte a ogni iterazione ai fini della classificazione. La foresta casuale è una tecnica che può essere applicata a diversi algoritmi di classificazione combinando il bagging con il sottospazio casuale, che comporta il sovracampionamento dei dati e il sottocampionamento dei predittori per raggiungere un equilibrio tra dati e caratteristiche. Il Dr. Chan fornisce una tabella di esempio con caratteristiche ipotetiche per prevedere il rendimento di domani al fine di spiegare meglio il concetto.

  • 00:20:00 In questa sezione, il Dr. Ernie Chan discute il processo di riduzione del set di funzionalità utilizzando algoritmi di classificazione come gli alberi di regressione della classificazione. Spiega che ci sono molte tecniche per questo, come il sottocampionamento o l'utilizzo di informazioni reciproche. Tuttavia, afferma che queste tecniche sono le più semplici e conosciute. Utilizzando un campione rappresentativo dei dati, dimostra come funziona l'algoritmo identificando quali indicatori tecnici sono utili per prevedere i rendimenti futuri e quali valori di questi indicatori genereranno rendimenti positivi o negativi. Una volta classificato un sottoinsieme di dati, il processo viene ripetuto per identificare altre variabili per una migliore classificazione.

  • 00:25:00 In questa sezione, il Dr. Ernie Chan spiega che gli algoritmi di apprendimento automatico funzionano trovando variabili predittive e parametri utili per il classificatore e iterando fino a quando non viene trovata alcuna significatività statistica. Gli algoritmi di apprendimento automatico sono spesso sistemi di regressione statistica con maggiori dettagli e condizioni sui dati. Prosegue discutendo l'algoritmo di classificazione delle macchine vettoriali di supporto, che mira a prevedere i rendimenti futuri di un giorno e se saranno positivi o negativi. L'algoritmo cerca di trovare un iperpiano per tagliare i dati, ma spesso è necessaria una trasformazione non lineare per trovare una separazione. Questa trasformazione è fondamentale per far funzionare efficacemente la macchina del vettore di supporto.

  • 00:30:00 In questa sezione, il dottor Chan discute la necessità di ricampionare i dati se non ci sono dati sufficienti per l'apprendimento da parte dell'algoritmo di apprendimento automatico, sebbene la quantità necessaria sia relativa al numero di predittori presenti. Descrive come le Support Vector Machine siano un modo per classificare i dati e, sebbene meno un algoritmo di selezione delle caratteristiche rispetto alla regressione graduale o all'albero di classificazione, l'SVM trova un iperpiano che può tagliare qualsiasi dimensione. Osserva che le reti neurali sono un'equazione non lineare e adattano i dati con una funzione lineare lunga mostruosa invece di utilizzare una funzione lineare come in Regressione e che Deep Learning è semplicemente una rete neurale con molti livelli ma pochissimi nodi per creazione di livello è più facile catturare le funzionalità in più fasi.

  • 00:35:00 In questa sezione, il Dr. Ernie Chan discute il concetto di utilizzo di una rete neurale per il trading quantitativo. Spiega che una rete neurale è uno strumento potente perché può approssimare qualsiasi funzione non lineare ed è in grado di prevedere il rendimento di domani date le variabili di oggi. Tuttavia, osserva anche che la rete neurale non funziona bene nel trading perché i mercati finanziari non sono stazionari ed è difficile acquisire caratteristiche rilevanti utilizzando questo approccio. Sottolinea che la rete neurale utilizza tutti gli input e non seleziona le caratteristiche, rendendo difficile trovare variabili che abbiano un effetto causale sul mercato.

  • 00:40:00 In questa sezione, il Dr. Ernie Chan spiega quando l'apprendimento automatico è utile ai trader. L'apprendimento automatico è utile quando i trader non hanno intuizione sui propri dati o sul mercato, o se non dispongono di un modello matematico dei propri dati. Inoltre, l'apprendimento automatico può aiutare i trader a sviluppare l'intuizione quando ci sono troppe funzionalità o quando non sanno quali funzioni sono importanti. Tuttavia, se i trader hanno una buona intuizione e un semplice modello matematico, è meglio costruire modelli semplici piuttosto che utilizzare l'apprendimento automatico. I trader dovrebbero anche fare attenzione quando utilizzano l'apprendimento automatico se hanno dati insufficienti o se ci sono stati cambiamenti di regime nel loro mercato perché un modello di mercato scadente può portare a algoritmi che si disgregano quando c'è un cambio di regime.

  • 00:45:00 In questa sezione del webinar, il Dr. Ernie Chan spiega l'importanza di utilizzare dati stazionari quando si applicano tecniche di apprendimento automatico nel trading quantitativo. Osserva che molti test statistici e tecnici possono essere utilizzati per determinare la stazionarietà di un set di dati, ma i risultati possono spesso essere ambigui. Il dottor Chan discute anche del suo scetticismo nei confronti dell'efficacia dell'apprendimento per rinforzo e dell'apprendimento profondo nel trading a causa della mancanza di una replica fuori campione di successo. Inoltre, sottolinea la necessità di una funzione target personalizzata in una strategia di trading e suggerisce l'uso di tecniche come la regressione set-wise o alberi decisionali per la modellazione predittiva.

  • 00:50:00 In questa sezione, il Dr. Ernie Chan discute la selezione della funzione target nell'apprendimento automatico per il trading quantitativo e spiega che la disponibilità dei dati determina la selezione della funzione target. Se la funzione target è un rendimento mensile, i rendimenti giornalieri diventano l'input e la selezione della variabile target deve corrispondere alla scala temporale della variabile predittore. Il dottor Chan spiega anche la differenza tra Adam e i metodi di apprendimento profondo, affermando che l'apprendimento profondo fa meno bene nella selezione delle funzionalità. Inoltre, la sezione approfondisce la definizione di diversi regimi e come definirli in base ai criteri preferiti. Infine, il Dr. Chan sottolinea che il numero di scambi nel trading quantitativo non è il fattore determinante per il successo.

  • 00:55:00 In questa sezione, il Dr. Ernie Chan spiega come ridurre la radice quadrata di n a un numero gestibile sia cruciale per ottenere un'elevata precisione nella protezione del rendimento. Spiega che l'errore è proporzionale alla radice quadrata del numero di scambi e che l'indice di Sharpe è un'eccellente misura di significatività statistica in quanto incorpora questo concetto nella sua costruzione. Si ritiene che una strategia con un rapporto Sharpe di due o superiore funzioni in modo efficace. Sebbene l'ultima domanda menzionata da Christophe possa essere troppo tecnica, il dottor Chan ritiene che l'indice di Sharpe sia un buon punto di riferimento per l'efficacia della strategia.
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
  • 2017.03.28
  • www.youtube.com
Quantitative trading and algorithmic trading expert Dr. Ernie Chan teaches you machine learning in quantitative finance. You will learn:1) The pros and cons ...