Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Ernest Chan (Predictnow.ai) - "Come utilizzare l'apprendimento automatico per l'ottimizzazione"
Ernest Chan (Predictnow.ai) - "Come utilizzare l'apprendimento automatico per l'ottimizzazione"
Ernest Chan, il co-fondatore di Predictnow.ai, approfondisce le sfide affrontate dai tradizionali metodi di ottimizzazione del portafoglio quando si tratta di cambiamenti di regime nei mercati. Suggerisce che l'apprendimento automatico può fornire una soluzione a questo problema. Chan spiega in che modo il suo team applica le tecniche di apprendimento automatico all'ottimizzazione del portafoglio, concentrandosi sull'incorporazione di funzionalità di serie temporali che misurano vari aspetti finanziari come volatilità, prezzi e tassi di interesse. Combinando il modello Farmer-French Three Factor con la consapevolezza che la classifica è più cruciale della previsione, mirano a ottenere un'ottimizzazione ottimale del portafoglio.
Chan prosegue condividendo i risultati concreti delle prestazioni del modello CBO e fornisce esempi di clienti che hanno sperimentato miglioramenti nelle prestazioni del loro portafoglio utilizzando questo approccio. Sottolinea che i modelli di apprendimento automatico hanno la capacità di adattarsi ai cambiamenti di regime, consentendo loro di rispondere efficacemente alle condizioni di mercato in evoluzione. Inoltre, discute di come i rendimenti dell'indice S&P 500 e dei suoi componenti possono essere calcolati utilizzando un algoritmo di apprendimento automatico che utilizza funzionalità di serie temporali.
Inoltre, Chan evidenzia l'approccio d'insieme impiegato dal suo team per l'ottimizzazione e la speculazione. Menziona la loro "salsa segreta" che elimina la necessità di un'ampia potenza di calcolo. Anziché seguire un processo in due fasi di previsione dei regimi e condizionamento della loro distribuzione dei rendimenti, utilizzano fattori visivi per prevedere direttamente la performance del portafoglio. Inoltre, Chan chiarisce che includendo una parte significativa del campione di addestramento nel proprio algoritmo, il rendimento atteso si allinea ai risultati passati.
Il Dr. Ernest Chan spiega le sfide affrontate dai tradizionali metodi di ottimizzazione del portafoglio in presenza di cambiamenti di regime e sottolinea il ruolo dell'apprendimento automatico nell'affrontare questo problema. Discute l'applicazione delle tecniche di apprendimento automatico, l'importanza delle caratteristiche delle serie temporali e l'importanza del posizionamento nel raggiungimento dell'ottimizzazione ottimale del portafoglio. Condivide risultati specifici e storie di successo dei clienti, evidenziando l'adattabilità dei modelli di apprendimento automatico alle mutevoli condizioni di mercato. Chan fornisce anche approfondimenti sul calcolo dei rendimenti utilizzando algoritmi di apprendimento automatico e fa luce sul loro approccio d'insieme e sulla loro metodologia unica.
Apprendimento automatico finanziario: il punto di vista di un professionista del Dr. Ernest Chan
Apprendimento automatico finanziario: il punto di vista di un professionista del Dr. Ernest Chan
In questo video informativo, il Dr. Ernest Chan approfondisce il regno del machine learning finanziario, esplorando diversi aspetti chiave e facendo luce su considerazioni importanti. Sottolinea l'importanza di evitare l'overfitting e sostiene la trasparenza nei modelli. Inoltre, il Dr. Chan evidenzia i vantaggi dell'utilizzo di modelli non lineari per prevedere il comportamento del mercato. Tuttavia, discute anche dei limiti dell'apprendimento automatico nel mercato finanziario, come la riflessività e le dinamiche in continua evoluzione del mercato.
Un punto cruciale che il Dr. Chan sottolinea è l'importanza dell'esperienza di dominio nella scienza dei dati finanziari. Sottolinea la necessità di selezionare le caratteristiche per ottenere una migliore comprensione delle variabili essenziali che influenzano le conclusioni di un modello. Identificando questi input importanti, investitori e trader possono ottenere informazioni sulle loro perdite e capire perché sono state prese determinate decisioni.
Il dottor Chan tocca anche l'applicazione dell'apprendimento automatico nella gestione del rischio e nell'allocazione del capitale. Suggerisce di trovare un mercato di nicchia ed evitare la concorrenza diretta con organizzazioni ben finanziate. In tal modo, i professionisti possono aumentare le loro possibilità di successo in queste aree.
In tutto il video, il Dr. Chan evidenzia i vantaggi e le sfide associate a diversi modelli e strategie. Osserva che mentre le strategie quantitative tradizionali, come i modelli lineari, sono facili da capire e meno inclini all'overfitting, lottano con la dipendenza non lineare tra i predittori. Al contrario, i modelli di machine learning eccellono nella gestione delle relazioni non lineari, ma la loro complessità e opacità possono rappresentare una sfida nell'interpretazione dei risultati e nella valutazione della significatività statistica.
Il dottor Chan discute anche dei limiti dell'utilizzo dell'apprendimento automatico per prevedere il mercato finanziario. Sottolinea che il mercato è in continua evoluzione, il che rende difficile fare previsioni accurate. Tuttavia, suggerisce che l'apprendimento automatico può avere successo nel prevedere informazioni private, come le strategie di trading, dove è meno probabile competere con parametri identici.
Inoltre, il Dr. Chan tocca l'incorporazione di dati fondamentali, compresi i dati categorici, nei modelli di apprendimento automatico. Sottolinea che i modelli di apprendimento automatico hanno un vantaggio rispetto ai modelli di regressione lineare nella gestione sia dei dati di valore reale che di quelli categorici. Tuttavia, mette in guardia contro l'affidarsi esclusivamente all'apprendimento automatico, sottolineando che la profonda conoscenza del dominio è ancora fondamentale per creare funzionalità efficaci e interpretare i dati in modo accurato.
Nell'ambito dell'allocazione del capitale, il dottor Chan sottolinea come l'apprendimento automatico possa fornire rendimenti attesi più sofisticati, sfidando l'uso delle performance passate come unico indicatore del successo futuro. Discute anche le sfumature della comprensione del mercato che l'apprendimento automatico può offrire, con probabilità che variano quotidianamente, a differenza delle distribuzioni di probabilità statiche delle statistiche classiche.
Il dottor Chan conclude affrontando i limiti del deep learning nella creazione di diverse funzionalità trasversali che richiedono competenze di dominio. Condivide i suoi pensieri sull'applicabilità dell'apprendimento per rinforzo nei modelli finanziari, rilevandone la potenziale efficacia alle alte frequenze ma i limiti su scale temporali più lunghe.
Per coloro che sono interessati a esplorare ulteriormente il machine learning finanziario, il Dr. Chan consiglia la sua azienda PredictNow.ai come risorsa preziosa per le competenze di machine learning finanziario senza codice.
Trading con Deep Reinforcement Learning | Dottor Thomas Starke
Trading con Deep Reinforcement Learning | Dottor Thomas Starke
Il Dr. Thomas Starke, un esperto nel campo dell'apprendimento per rinforzo profondo per il trading, ha tenuto una presentazione perspicace e si è impegnato in una sessione di domande e risposte con il pubblico. Quello che segue è un riassunto esteso del suo discorso:
Il Dr. Starke ha iniziato introducendo l'apprendimento di rinforzo profondo per il trading, evidenziando la sua capacità di consentire alle macchine di risolvere compiti senza supervisione diretta. Ha usato l'analogia di un machine learning per giocare a un gioco per computer, dove impara a prendere decisioni in base a ciò che vede sullo schermo e raggiunge il successo o il fallimento in base alla sua catena di decisioni.
Ha poi discusso il concetto di un processo decisionale di Markov nel trading, in cui gli stati sono associati ai parametri di mercato e le azioni fanno passare il processo da uno stato all'altro. L'obiettivo è massimizzare la ricompensa attesa data una politica e uno stato specifici. I parametri di mercato sono fondamentali per aiutare la macchina a prendere decisioni informate sulle azioni da intraprendere.
Il processo decisionale nel trading implica determinare se acquistare, vendere o detenere sulla base di vari indicatori che informano lo stato del sistema. Il dottor Starke ha sottolineato l'importanza di non fare affidamento esclusivamente su etichette di profitti o perdite immediate per ogni stato, in quanto ciò può portare a previsioni errate. Invece, la macchina deve capire quando rimanere in un trade anche se inizialmente va contro di esso, aspettando che il trade torni alla linea media prima di uscire.
Per affrontare la difficoltà di etichettare ogni fase dei profitti e delle perdite di un'operazione, il Dr. Starke ha introdotto l'etichettatura retroattiva. Questo approccio utilizza l'equazione di Bellman per assegnare un valore diverso da zero a ogni azione e stato, anche se non comporta un profitto immediato. Ciò consente la possibilità di tornare alla media e all'eventuale profitto.
L'apprendimento approfondito per rinforzo può aiutare a prendere decisioni di trading basate su risultati futuri. I tradizionali metodi di apprendimento per rinforzo costruiscono tabelle basate su esperienze passate, ma nel trading il numero di stati e influenze è vasto. Per gestire questa complessità, il deep reinforcement learning utilizza le reti neurali per approssimare queste tabelle, rendendolo fattibile senza creare una tabella enorme. Il Dr. Starke ha discusso dell'importanza di trovare la giusta funzione di ricompensa e gli input per definire lo stato, consentendo in definitiva un migliore processo decisionale per il trading.
È stata evidenziata l'importanza degli input nel trading, sottolineando la loro necessità di avere un valore predittivo. Il dottor Starke ha sottolineato l'importanza di testare il sistema per comportamenti noti e selezionare il tipo, la dimensione e la funzione di costo appropriati della rete neurale in base alla funzione di ricompensa scelta. Ha spiegato come la ludicizzazione viene impiegata nel trading, dove i prezzi storici e attuali, i dati tecnici di guardia e le fonti di dati alternative costituiscono lo stato e la ricompensa è il profitto e la perdita (P&L) del commercio. La macchina etichetta retroattivamente le osservazioni utilizzando l'equazione di Bellman e aggiorna continuamente le tabelle approssimate dalle reti neurali per migliorare il processo decisionale.
Per quanto riguarda la formazione con l'apprendimento per rinforzo, il Dr. Starke ha discusso diversi modi per strutturare la serie dei prezzi, incluso l'ingresso e l'uscita casuali in vari punti. Ha anche affrontato la sfida di progettare una funzione di ricompensa e ha fornito esempi come P&L in percentuale pura, profitto per tick e indice di Sharpe, nonché metodi per evitare tempi di percorrenza lunghi o prelievi.
In termini di input per il trading, il Dr. Starke ha menzionato numerose opzioni, tra cui valori di apertura-massimo-minimo-chiusura e volume, modelli di candele, indicatori tecnici come l'indice di forza relativa, ora del giorno/settimana/anno e inserimento di prezzi e dati tecnici indicatori per altri strumenti. Possono essere prese in considerazione anche fonti di dati alternative come sentiment o immagini satellitari. La chiave è costruire questi input in uno stato complesso, simile a come le funzionalità di input vengono utilizzate nei giochi per computer per prendere decisioni.
Il dottor Starke ha spiegato la fase di test a cui deve sottoporsi lo studente di rinforzo prima di essere utilizzato per il trading. Ha delineato vari test, tra cui onde sinusoidali pulite, curve di tendenza, serie randomizzate senza struttura, diversi tipi di correlazioni di ordine, rumore nelle curve di test pulite e modelli ricorrenti. Questi test aiutano a determinare se la macchina genera costantemente profitti e a identificare eventuali difetti nella codifica. Il Dr. Starke ha anche discusso i diversi tipi di reti neurali utilizzate, come la memoria standard, convoluzionale e a lungo termine (LSTM). Ha espresso una preferenza per reti neurali più semplici che soddisfano le sue esigenze senza richiedere uno sforzo computazionale eccessivo.
Il dottor Starke ha quindi approfondito le sfide dell'utilizzo dell'apprendimento per rinforzo per il trading. Ha riconosciuto la difficoltà di distinguere tra segnale e rumore, in particolare nelle serie temporali finanziarie rumorose. Ha anche evidenziato la difficoltà dell'apprendimento per rinforzo per adattarsi ai cambiamenti nel comportamento del mercato, rendendo difficile l'apprendimento di nuovi comportamenti. Inoltre, ha affermato che mentre l'apprendimento per rinforzo richiede una quantità significativa di dati di addestramento, i dati di mercato sono spesso scarsi. L'overfitting è un'altra preoccupazione, poiché l'apprendimento per rinforzo tende ad agire sui modelli di mercato di base e può facilmente overfitting. Costruire reti neurali più complesse può mitigare questo problema, ma è un'attività che richiede tempo. Nel complesso, il dottor Starke ha sottolineato che l'apprendimento per rinforzo non è una soluzione garantita per risultati redditizi ed è fondamentale avere esperienza di mercato e conoscenze specifiche del dominio per raggiungere il successo nel trading.
Durante la sessione di domande e risposte, il Dr. Starke ha affrontato varie domande relative al trading con il deep reinforcement learning. Ha chiarito che l'equazione di Bellman non introduce bias di previsione e ha discusso il potenziale utilizzo di indicatori tecnici come input dopo un'attenta analisi. Ha anche esplorato la possibilità di utilizzare immagini satellitari per prevedere i prezzi delle azioni e ha spiegato che il trading di rinforzo può essere eseguito su piccoli intervalli di tempo a seconda del tempo di calcolo della rete neurale. Ha avvertito che gli algoritmi di trading di rinforzo sono sensibili alle anomalie del mercato e ha spiegato perché l'addestramento di alberi decisionali casuali utilizzando l'apprendimento per rinforzo non produce risultati significativi.
Il dottor Starke ha raccomandato di utilizzare reti neurali per il trading invece di alberi decisionali o macchine vettoriali di supporto a causa della loro idoneità al problema. Ha sottolineato l'importanza di regolare la funzione di perdita in base alla funzione di ricompensa utilizzata. Sebbene siano stati fatti alcuni tentativi per applicare l'apprendimento per rinforzo al trading ad alta frequenza, il Dr. Starke ha evidenziato la sfida delle reti neurali lente che mancano di reattività nei mercati in tempo reale. Ha consigliato alle persone interessate a perseguire una carriera commerciale nel settore finanziario di acquisire conoscenze di mercato, impegnarsi in operazioni reali e imparare dall'esperienza. Infine, ha discusso le sfide della combinazione di reti neurali e trading di opzioni, riconoscendo la complessità del compito.
In conclusione, il Dr. Thomas Starke ha fornito preziose informazioni sul trading con un profondo apprendimento per rinforzo. Ha trattato argomenti come il processo decisionale nel trading, l'etichettatura retroattiva, l'equazione di Bellman, l'importanza degli input, le fasi di test e le sfide associate all'apprendimento per rinforzo per il trading. Attraverso il suo discorso e la sessione di domande e risposte, il Dr. Starke ha offerto indicazioni e considerazioni pratiche per sfruttare l'apprendimento approfondito per rinforzo nei mercati finanziari.
Harrison Waldon (UT Austin): "Le equazioni dell'apprendimento algoritmico"
Harrison Waldon (UT Austin): "Le equazioni dell'apprendimento algoritmico"
Harrison Waldon, un ricercatore dell'UT Austin, ha presentato il suo lavoro sulla collusione algoritmica nei mercati finanziari, concentrandosi sull'interazione e la potenziale collusione degli algoritmi di apprendimento per rinforzo (RL). Ha affrontato le preoccupazioni delle autorità di regolamentazione in merito al trading algoritmico autonomo e al suo potenziale di gonfiare i prezzi attraverso la collusione senza comunicazione esplicita.
La ricerca di Waldon mirava a comprendere il comportamento degli algoritmi RL in contesti finanziari e determinare se possono imparare a colludere. Ha utilizzato le equazioni di apprendimento algoritmico (ALE) per derivare un sistema di equazioni differenziali ordinarie (ODE) che approssimano l'evoluzione degli algoritmi in condizioni specifiche. Questi ALE sono stati in grado di convalidare il comportamento collusivo negli algoritmi di Q-learning e hanno fornito una buona approssimazione dell'evoluzione dell'algoritmo, dimostrando un ampio bacino di attrazione per i risultati collusivi.
Tuttavia, ci sono difficoltà nel calcolare la distribuzione stazionaria e nel distinguere la vera collusione dal comportamento razionale di autoconservazione. Sorgono difficoltà numeriche nel determinare la distribuzione stazionaria e rimane una sfida differenziare la vera collusione dal comportamento guidato dall'interesse personale.
Waldon ha evidenziato i limiti dell'equilibrio del gioco statico quando applicato alle interazioni dinamiche, sottolineando la necessità di un approccio globale alla regolazione del comportamento. Il comportamento collusivo facilitato da algoritmi senza comunicazione diretta tra le parti richiede un'attenta considerazione. Il discorso si è concluso con Waldon che ha espresso la sua gratitudine ai partecipanti, segnando la fine della serie del semestre primaverile.
Irene Aldridge (AbleBlox e AbleMarkets): "Crypto Ecosystem e AMM Design"
Irene Aldridge (AbleBlox e AbleMarkets): "Crypto Ecosystem e AMM Design"
Irene Aldridge, fondatrice e amministratore delegato di AbleMarkets, approfondisce vari aspetti della tecnologia blockchain, del market making automatizzato (AMM) e della convergenza dei mercati tradizionali con il mondo degli AMM. Sottolinea l'importanza di questi argomenti nella finanza ed esplora le potenziali sfide e soluzioni ad essi associate.
Aldridge inizia fornendo una panoramica del suo background nel settore finanziario e della sua esperienza nella microstruttura, che si concentra sulla comprensione delle operazioni di mercato. Sottolinea la crescente adozione di modelli di market making automatizzati, inizialmente importanti nel mercato delle criptovalute ma che ora si estendono ai mercati tradizionali. Descrive la struttura della sua presentazione, che copre i concetti introduttivi della blockchain, l'applicazione della blockchain nella finanza e nella programmazione e studi di casi reali di market making e il suo impatto sui mercati tradizionali.
Esplorando la tecnologia blockchain, Aldridge lo descrive come un database avanzato in cui ogni riga contiene un riepilogo crittografico della riga precedente, garantendo l'integrità dei dati. Spiega il processo di mining coinvolto nella blockchain, in cui il contenuto proposto viene convalidato e aggiunto alla catena, portando a una maggiore trasparenza e decentralizzazione nelle pratiche burocratiche e nei sistemi di pagamento.
Aldridge discute il passaggio verso il decentramento nell'ecosistema crittografico, evidenziando il compromesso tra privacy e la robustezza di avere più copie del database sui server. Spiega il processo blockchain, dalla definizione dei blocchi e la creazione di firme crittografiche alle innovazioni fondamentali della prova del lavoro e del mining, che garantiscono la sicurezza contro i tentativi di hacking.
Tuttavia, Aldridge riconosce le sfide associate al sistema di mining proof of work, tra cui l'aumento del costo del mining, un numero decrescente di minatori e potenziali vulnerabilità. Evidenzia soluzioni alternative, come l'aggregazione di blocchi di Ethereum e l'eliminazione degli enigmi per il mining da parte di Coinbase.
L'oratore passa all'esplorazione dello staking nell'ecosistema delle criptovalute, in cui le parti interessate impegnano i loro fondi per supportare le operazioni della rete. Riconosce il potenziale problema degli oligarchi crittografici che manipolano il mercato e spiega come sono state implementate la convalida off-chain e il market making automatizzato per contrastare questo problema. Aldridge sottolinea l'importanza di comprendere questi concetti per cogliere il significato del market making automatizzato nel prevenire la manipolazione nel mercato delle criptovalute.
Aldridge approfondisce i principi alla base degli Automated Market Makers (AMM), sottolineando il loro impatto rivoluzionario sul trading di criptovalute. Spiega come le curve AMM, modellate da invarianti relative alla liquidità, determinano i prezzi in base all'inventario rimanente nel pool di liquidità. Sottolinea i vantaggi degli AMM, tra cui la liquidità 24 ore su 24, 7 giorni su 7, la stima dello slippage basata su formule e la determinazione del valore equo tramite curve convesse. Tuttavia, afferma anche che gli AMM possono subire perdite in condizioni volatili, portando all'introduzione di commissioni di transazione.
Confrontando gli AMM con i mercati tradizionali, Aldridge discute i vantaggi del market making automatizzato, come la liquidità continua, lo slippage prevedibile e la determinazione del fair value. Spiega il costante metodo di creazione del mercato del prodotto utilizzato da UniSwap, illustrando come i broker di esecuzione possono selezionare piattaforme per la liquidità e l'esecuzione sulla base di dati parametrizzati.
Il relatore discute il calcolo delle variazioni di volume e la distinzione tra pool di liquidità pubblici e privati. Presenta esempi empirici utilizzando Bitcoin ed Ethereum da diversi scambi, sottolineando le differenze nelle loro curve e suggerendo potenziali problemi con determinate piattaforme.
Aldridge sottolinea l'importanza di progettare curve AMM utilizzando forme convesse per garantire la stabilità del mercato. Spiega i ruoli dei fornitori di liquidità e dei trader nel sistema e come beneficiano delle commissioni di transazione. Solleva anche la possibilità che i sistemi AMM vengano utilizzati nei mercati tradizionali, spingendo a prendere in considerazione la loro applicazione ad asset come le azioni IBM.
Aldridge esplora la convergenza dei mercati tradizionali con il market making automatizzato, osservando che i market maker tradizionali stanno già implementando sistemi simili. Sottolinea i cambiamenti attesi nelle interazioni di mercato, nelle strategie di trading, nei metodi di esecuzione e nella trasparenza. Viene discussa anche l'influenza dei market maker automatizzati sulla microstruttura dei mercati.
Affrontando la fattibilità dell'implementazione della liquidità automatizzata in ambienti di trading 24 ore su 24, 7 giorni su 7 come il mercato delle criptovalute, Aldridge spiega che il market making automatizzato può eliminare i rischi associati ai tradizionali metodi di market making e che la tecnologia è prontamente disponibile. Tuttavia, avverte che non tutti gli scambi di criptovalute utilizzano il market making automatizzato, sottolineando la necessità di ricerca per affrontare la gestione del rischio e le esternalità. Aldridge sottolinea che la tecnologia automatizzata di market making è emersa più o meno nello stesso periodo delle criptovalute come Bitcoin nel 2002.
Interrogato sul potenziale vantaggio sleale del market making automatizzato che i rivenditori hanno accesso a informazioni private, Aldridge riconosce che ciò pone un problema. Tuttavia, suggerisce che fare acquisti e quantificare la curva di creazione automatizzata del mercato su piattaforme diverse può aiutare a mitigare questo problema. Nota che i minatori sono incentivati a continuare il loro lavoro perché sono quelli che traggono vantaggio dall'accesso e dalla convalida dei blocchi di ordini. Tuttavia, a meno che non ci sia un incentivo privato, è sempre più difficile generare profitti in questo spazio, portando alla formazione di oligopoli. Aldridge propone che l'assicurazione possa servire come incentivo naturale per i minatori a lavorare quasi gratis. Tuttavia, le compagnie assicurative percepiscono la blockchain come una grave minaccia per il loro settore, con conseguente resistenza a tali progetti di sistema. Affronta anche la possibilità di schemi di frode, evidenziando la potenziale manipolazione nella curva IBM.
Nel contesto dei libri degli ordini con limite centralizzati, Aldridge spiega come i partecipanti al mercato stiano utilizzando modelli di market making automatizzati, come gli AMM, che forniscono liquidità in modo conveniente e automatizzato, con potenziali profitti. Tuttavia, la distinzione tra i trader che utilizzano gli AMM e quelli che effettuano manualmente gli ordini limite rimane una sfida. Aldridge suggerisce che l'identificazione di utenti malintenzionati attraverso l'analisi dei dati microstrutturali potrebbe offrire una potenziale soluzione. Ritiene che se gli AMM continueranno a dominare il mercato, emergerà un modello più efficiente e snello.
In sintesi, la discussione di Irene Aldridge copre vari aspetti della tecnologia blockchain, del market making automatizzato e della convergenza dei mercati tradizionali con il mondo AMM. Esplora le basi della blockchain, discute le sfide e le potenziali soluzioni relative ai sistemi di mining di prove di lavoro ed evidenzia i vantaggi degli AMM rispetto ai mercati tradizionali. Aldridge affronta anche le preoccupazioni riguardanti la fattibilità dell'implementazione della liquidità automatizzata, la questione del mercato automatizzato che i rivenditori hanno accesso a informazioni private e il potenziale ruolo dell'assicurazione come incentivo per i minatori. Attraverso le sue intuizioni, fornisce preziose prospettive sul panorama attuale e sulle possibilità future nel mondo della finanza e del market making automatizzato.
Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"
Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"
Agostino Capponi, a researcher from Columbia University, delves into the issue of front running in decentralized exchanges and proposes private transaction pools as a potential solution. These private pools operate off-chain and separate from the public pool, ensuring that validators committed to not engaging in front running handle them. However, Capponi acknowledges that using private pools carries an execution risk since not all validators participate in the private pool, which means there's a possibility that transactions may go unnoticed and remain unexecuted. It's important to note that the adoption of private pools might not necessarily reduce the minimum priority fee required for execution. Furthermore, Capponi points out that the competition between front-running attackers benefits validators through maximal extractable value (MEV). Ultimately, while private pools can mitigate front-running risk, they may increase the fee needed for execution, leading to inefficiencies in allocation.
Capponi highlights the correlation between the proportion of transactions routed through private pools and the probability of being front-run, which complicates optimal allocation. He also explores different types of front-running attacks, including suppression and displacement attacks, and presents data showing the substantial losses incurred due to front running. To address these risks, Capponi suggests educating users on transaction timing and making transaction validation more deterministic to create a more equitable system.
The discussion touches on the dynamics of private transaction pools, the challenges of adoption, and the potential trade-offs involved. Capponi explains how private pools provide protection against front running but cautions that their effectiveness depends on the number of validators participating in the private pool. Additionally, he addresses the issue of validators not adopting private pools due to the loss of MEV, proposing potential solutions such as user subsidies to incentivize their adoption.
While private transaction pools can mitigate front-running risks to some extent, Capponi emphasizes that they are not foolproof and may not achieve optimal allocation. The complexity arises from factors such as the competition between attackers, the adoption rate of validators in private pools, and the resulting impact on execution fees. The discussion raises important considerations for the blockchain community in addressing front-running risks and ensuring a fair and efficient decentralized exchange environment.
Dr. Kevin Webster: "Ottenere di più con meno - Migliori test A/B tramite regolarizzazione causale"
Dr. Kevin Webster: "Ottenere di più con meno - Migliori test A/B tramite regolarizzazione causale"
In questo video, il Dr. Kevin Webster approfondisce le sfide associate agli esperimenti di trading e all'apprendimento automatico causale, approfondendo vari argomenti chiave. Un problema importante che affronta è il bias di previsione nel trading, in cui il rendimento osservato durante uno scambio è una combinazione di impatto del prezzo e movimento di prezzo previsto. Per mitigare questo pregiudizio, il Dr. Webster propone due approcci: l'uso di dati di trading randomizzati e l'applicazione della regolarizzazione causale. Incorporando il segnale di trading che ha causato uno scambio nel modello di regressione, è possibile eliminare i bias.
Il Dr. Webster introduce il concetto di grafico causale, che coinvolge tre variabili: l'alfa dell'operazione, la dimensione dell'operazione e i rendimenti durante l'operazione. Afferma che stimare accuratamente l'impatto dei prezzi è una sfida senza osservare l'alfa e che le tecniche econometriche tradizionali non sono all'altezza a questo proposito. Sottolinea i limiti degli esperimenti di trading randomizzati a causa della loro dimensione e durata limitate, sottolineando la necessità di un'attenta progettazione dell'esperimento e di una stima dei costi utilizzando simulatori.
Per superare le carenze dell'econometria tradizionale, il Dr. Webster sostiene la regolarizzazione causale. Questo metodo, derivato da Amazon, utilizza dati distorti per l'addestramento e dati imparziali per i test, ottenendo stimatori a bassa distorsione e bassa varianza. Sfrutta la ricchezza di dati organizzativi disponibili e corregge i pregiudizi, consentendo previsioni più accurate.
La stima dell'alfa senza la conoscenza del suo impatto rappresenta una sfida significativa, soprattutto quando i dati commerciali mancano di affidabilità. Il dottor Webster suggerisce l'uso dell'invio casuale di operazioni per ottenere dati imparziali senza fare affidamento sulla tecnologia dei prezzi. Tuttavia, questo approccio richiede di rinunciare a un'ampia frazione di operazioni per stabilire un intervallo di confidenza sull'alfa, il che potrebbe non essere pratico. In alternativa, propone di sfruttare l'apprendimento automatico causale per ottenere risultati simili con meno dati. L'apprendimento automatico causale si rivela particolarmente prezioso nelle applicazioni di trading, come l'analisi dei costi di transazione, la valutazione dell'impatto dei prezzi e la ricerca alfa, superando l'econometria tradizionale grazie alla disponibilità di dati di trading approfonditi e distorti.
Il relatore approfondisce anche il significato dell'analisi statistica nei test A/B, sottolineando la necessità di definire l'impatto del prezzo e allegare una misura statistica per combattere il bias di previsione. Senza affrontare questo pregiudizio, l'analisi diventa soggettiva e fa affidamento sull'interpretazione individuale. Il Dr. Webster riconosce le sfide poste dai dati osservazionali pubblici e sottolinea le intuizioni ottenute dai dati interventistici. Sebbene rispondere alla domanda su quale approccio adottare sia complesso, i test A/B rimangono una pratica comune nei settori bancario e di intermediazione.
Infine, il Dr. Webster discute brevemente la relazione tra transfer learning e regolarizzazione causale. Sebbene entrambi implichino l'addestramento di un modello su un set di dati e l'applicazione a un altro, il transfer learning manca di un'interpretazione causale. L'analogia tra i due risiede nel loro processo di convalida, con la convalida incrociata che gioca un ruolo fondamentale. Nonostante le loro somiglianze matematiche, il Dr. Webster sottolinea la novità dell'interpretazione causale nell'approccio.
Yuyu Fan (Alliance Bernstein): "Sfruttare il text mining per estrarre approfondimenti"
Yuyu Fan (Alliance Bernstein): "Sfruttare il text mining per estrarre approfondimenti"
Yuyu Fan, ricercatore presso Alliance Bernstein, fornisce preziose informazioni sull'applicazione dell'elaborazione del linguaggio naturale (NLP) e dell'apprendimento automatico nell'analisi delle trascrizioni delle chiamate agli utili e nella generazione di strategie di trading efficaci.
Il team di Fan ha impiegato varie tecniche, tra cui l'analisi del sentimento, l'analisi contabile e il punteggio di leggibilità, per vagliare oltre 200 funzionalità estratte dalle trascrizioni delle chiamate sugli utili. Hanno utilizzato modelli avanzati come BERT (Bidirectional Encoder Representations from Transformers) per valutare il sentiment dei relatori, confrontando il sentiment dei CEO con quello degli analisti. È interessante notare che hanno scoperto che il sentimento degli analisti tende ad essere più affidabile.
L'analisi è stata condotta sia su singole sezioni che su sezioni combinate delle trascrizioni, con il team che ha scoperto che un approccio basato sul contesto supera un approccio ingenuo basato su parole di sottofondo. Il segnale del sentiment, in particolare per le società a bassa capitalizzazione statunitensi, ha dato buoni risultati ed è stato raccomandato dai team di investimento.
Nello spiegare la metodologia, Fan descrive come il suo team ha utilizzato lo screening dei quantili e il backtesting per valutare le prestazioni delle diverse funzionalità. Hanno esaminato i punteggi del sentimento basati su approcci basati sul dizionario e approcci basati sul contesto utilizzando BERT. Il team ha anche approfondito i punteggi di leggibilità, che misurano la facilità di comprensione di un testo, concentrandosi sui commenti del CEO per identificare potenziali correlazioni con le prestazioni aziendali.
Fan fornisce approfondimenti sul funzionamento di BERT, evidenziando la sua rappresentazione del codificatore bidirezionale che cattura informazioni contestuali da sinistra e destra di una data parola. Il team ha messo a punto il modello BERT per l'analisi del sentiment aggiungendo etichette di sentiment tramite auto-etichettatura e set di dati esterni. I loro risultati hanno indicato che l'analisi del sentiment basata su BERT ha superato l'analisi del sentiment basata su dizionario, come dimostrato da esempi di trascrizioni delle chiamate sugli utili.
Inoltre, Fan discute le sfide dell'impostazione delle soglie di accuratezza per l'analisi del sentiment e sottolinea che le prestazioni pratiche potrebbero non differire in modo significativo tra i livelli di accuratezza. Sottolinea il successo del loro segnale di sentiment sulle società a bassa capitalizzazione statunitensi, che ha portato alla sua raccomandazione da parte dei team di investimento. Fan menziona anche la pubblicazione di un documento che descrive in dettaglio le caratteristiche della PNL che potrebbero servire come segnali quantitativi per la creazione di strategie di trading efficienti, con continui sforzi per migliorare il modello attraverso l'aumento dei dati.
La discussione si espande per coprire la correlazione tra le caratteristiche della PNL e le tradizionali caratteristiche fondamentali e quantitative, evidenziando la moderata correlazione osservata per la leggibilità e il sentiment accounting. Fan chiarisce la propria metodologia di rendimento, inclusa la selezione delle società sulla base delle ultime informazioni disponibili prima del ribilanciamento.
Verso la fine, Fan tocca argomenti come l'arbitraggio di CO2, la differenza tra BERT e FinBERT e lo sviluppo di un modello di utilizzo finanziario per BERT specificamente adattato a dichiarazioni, guadagni e notizie relative alla finanza. Viene anche menzionato il processo di conversione dei dati audio in trascrizioni per l'analisi, con l'uso di servizi di trascrizione e soluzioni di fornitori.
In sintesi, la ricerca di Yuyu Fan mette in mostra il potere della PNL e delle tecniche di apprendimento automatico nell'analisi delle trascrizioni delle chiamate sugli utili. L'applicazione dell'analisi del sentiment, dell'analisi contabile e del punteggio di leggibilità, insieme all'utilizzo di modelli avanzati come BERT, consente la generazione di strategie di trading efficienti. L'approccio basato sul contesto supera gli approcci ingenui e il segnale del sentiment si rivela prezioso, in particolare per le società a bassa capitalizzazione statunitensi, come raccomandato dai team di investimento di Alliance Bernstein.
Ciamac Moallemi (Columbia): "Fornitura di liquidità e market making automatizzato"
Ciamac Moallemi (Columbia): "Fornitura di liquidità e market making automatizzato"
In questa discussione completa, Ciamac Moallemi, professore della Columbia University, approfondisce le complessità della fornitura di liquidità e del market making automatizzato (AMM) da varie angolazioni. Sottolinea l'importanza degli AMM nell'affrontare le sfide computazionali e di archiviazione affrontate dalle piattaforme blockchain e la loro capacità di generare rendimenti positivi per i fornitori di liquidità. Per illustrare il concetto, Moallemi presenta il costo della selezione avversa per la volatilità in UniSwap V2, rivelando un costo annuale di circa $ 39.000 su un pool di $ 125 milioni. Sottolinea l'importanza della volatilità e del volume degli scambi nel determinare i rendimenti dei fornitori di liquidità e chiarisce come gli AMM gestiscono gli arbitraggisti e i trader informati.
Moallemi sottolinea i vantaggi dell'utilizzo degli AMM sulla blockchain ed esplora i ruoli delle funzioni di valore in pool e delle funzioni di legame. Sottolinea l'importanza della copertura dei rischi e dei costi associati alle strategie di ribilanciamento. Inoltre, Moallemi introduce il proprio modello per la fornitura di liquidità e il market making automatizzato, confrontandolo con i dati reali della blockchain di Ethereum. Discute di come il suo modello possa potenzialmente migliorare gli AMM riducendo i costi pagati agli intermediari. Moallemi propone vari approcci per mitigare le inefficienze causate da prezzi non ottimali, come l'utilizzo di un oracolo come fonte di dati e la vendita di diritti di arbitraggio ai partecipanti autorizzati, consentendo loro di negoziare contro il pool senza commissioni.
Inoltre, Moallemi chiarisce i vantaggi degli AMM rispetto ai tradizionali limit order book, in particolare in termini di semplicità e accessibilità. Sottolinea come gli AMM livellano il campo di gioco per i partecipanti meno sofisticati eliminando la necessità di algoritmi complessi e risorse estese. Moallemi conclude esprimendo ottimismo sul potenziale di strutture migliori a vantaggio di una più ampia gamma di partecipanti, posizionando gli AMM come un passo nella giusta direzione.
Andreea Minca (Cornell ORIE): Clustering di reti finanziarie eterogenee
Andreea Minca (Cornell ORIE): Clustering di reti finanziarie eterogenee
La professoressa Andreea Minca, rinomata esperta nel campo delle reti finanziarie presso Cornell ORIE, ha dedicato la sua ricerca all'esplorazione delle complessità del raggruppamento di reti finanziarie eterogenee. Introduce un termine di regolarizzazione innovativo per affrontare le sfide uniche poste da queste reti, in particolare la presenza di valori anomali con schemi di connessione arbitrari. Questi valori anomali ostacolano le prestazioni degli algoritmi di clustering spettrale e trasformano il clustering in un problema computazionalmente impegnativo noto come problema combinatorio NP-hard.
Per identificare questi valori anomali in base ai loro schemi di connessione, Minca utilizza il modello a blocchi stocastico e il modello a blocchi stocastico corretto per il grado. Questi modelli offrono garanzie teoriche per un recupero preciso senza fare ipotesi sui nodi anomali, se non conoscendone il numero. L'eterogeneità insita nelle reti finanziarie complica ulteriormente il rilevamento di valori anomali basati esclusivamente sui gradi dei nodi.
Minca approfondisce il processo di partizionamento della rete in cluster e valori anomali costruendo una matrice di partizione e una permutazione di nodi. Esemplifica questo approccio applicandolo all'analisi del sistema bancario coreano. Inoltre, Minca utilizza un campionatore Gibbs per colmare le lacune nella rete, consentendo un'efficiente allocazione del rischio e la diversificazione degli investimenti raggruppando portafogli sovrapposti in base alla loro forza e al livello di sovrapposizione.
Nel suo lavoro, Minca sottolinea l'importanza di generare cluster che esibiscono un'interconnettività significativa piuttosto che cluster senza connettività. Propone un approccio che offre cinque alternative per la diversificazione nell'ambito di un quadro di parità di rischio di cluster, evidenziando la necessità di un'attenta considerazione quando si utilizzano algoritmi di clustering per ottenere la diversificazione nelle reti finanziarie. Minca consiglia di quantificare le prestazioni degli algoritmi di clustering utilizzando categorie di investimento standard e sottolinea l'importanza di un processo decisionale informato quando si utilizzano queste tecniche.
Nel complesso, la ricerca della professoressa Andreea Minca fornisce preziose informazioni sulle complessità del raggruppamento di reti finanziarie eterogenee, offrendo approcci innovativi e soluzioni pratiche per affrontare le sfide associate a queste reti. Il suo lavoro contribuisce al progresso dell'analisi del rischio, alla selezione del portafoglio e alla comprensione delle dinamiche strutturali dei sistemi finanziari.