L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2727
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Le sue ipotesi sembrano troppo forti. Nel senso che se fosse possibile realizzarle, sarebbe praticamente un graal. Vorrei risolvere un problema più modesto e specifico: trovare un modo generale per trovare un compromesso tra la lunghezza sufficiente della trayne e l'assenza di esempi obsoleti in essa.
A mio parere, questo problema è fondamentale per le applicazioni di MO e matstat nel nostro campo.
Non avete provato a sperimentare? Dopotutto, secondo il vostro approccio teorico alla questione, dopo un aumento critico della dimensione del campione, i modelli nel campione saranno vecchi, non più funzionanti, il che significa che l'apprendimento dovrebbe deteriorarsi in senso qualitativo e i risultati su nuovi dati saranno peggiori quando il campione viene aumentato.
Otteniamo un'analisi a posteriori di un modello già addestrato. Vorrei integrarla con un'analisi a priori per la fase di selezione del campione di addestramento.
Lo penso anch'io. Ho deciso di utilizzare l'ultimo vertice formato dello zigzag per semplicità, ma vorrei qualcosa di più elaborato.
Inizio a estrarre solo pezzi funzionanti dai nuovi dati e applico un filtro sotto forma di un secondo modello per lavorare sia sui vecchi che sui nuovi dati, poi lo verifico su altri nuovi dati, come nell'articolo.
Anche questa è una sorta di adattamento, ma sulla base degli errori del modello. Come se selezionassimo almeno quelle varianti che è in grado di classificare bene, quindi c'è qualcosa in loro oltre alla casualità (almeno su training e validazione e qualche altra validazione).
Se a priori si stabilisce qualcosa, probabilmente ha senso prendere qualsiasi monitoraggio di lunga durata, che fornirà almeno un markup adeguato. Raccogliere i segnali.
Ho elaborato un nuovo spammer di caratteristiche e obiettivi (sembra essere informativo, e lo è, rispetto al solito campionamento casuale). Ma ci sono alcune varianti, non l'ho ancora testato.
Non avete provato a sperimentare? Dopotutto, secondo il vostro approccio teorico in questa domanda, dopo un aumento critico della dimensione del campione, i modelli nel campione arriveranno vecchi, non più funzionanti, e quindi l'apprendimento dovrebbe deteriorarsi in senso qualitativo e su nuovi dati i risultati saranno peggiori quando il campione viene aumentato.
Probabilmente vi renderete conto che è un compito computazionale assolutamente immane allenarsi su un gran numero di varianti per la lunghezza della storia per un gran numero di punti nel tempo. Anche se per miracolo si riuscisse a raccogliere tutte queste statistiche, si porrebbe il problema di una sistematizzazione significativa di questo mucchio di informazioni. Sicuramente una diversa lunghezza della storia risulterà ottimale per ogni momento. E come interpretare questo dato e, soprattutto, come estrapolarlo nel futuro?
Vorrei fare il percorso inverso, cioè trovare un'euristica per ridurre drasticamente il numero di varianti per la lunghezza della storia di allenamento (letteralmente fino a poche varianti).
Inizio ad estrarre solo i pezzi funzionanti dai nuovi dati e applico il filtro come secondo modello per lavorare sia sui vecchi che sui nuovi dati, quindi lo verifico su altri nuovi dati come nell'articolo.
Anche questa è una sorta di adattamento, ma sulla base degli errori del modello. Come se si selezionassero almeno le varianti che il modello è in grado di classificare bene, in modo che ci sia qualcosa in loro oltre alla casualità (almeno per quanto riguarda l'addestramento e la convalida e qualche altra convalida).
Se a priori si stabilisce qualcosa, probabilmente ha senso prendere qualsiasi monitoraggio di lunga durata, che fornirà almeno un markup adeguato. Raccogliere i segnali.
Ho ideato un nuovo spammer di caratteristiche e obiettivi (sembra essere informativo, e così è rispetto al solito campionamento casuale). Ma ci sono alcune varianti, non l'ho ancora testato.
Dovrò rifletterci su. Non capisco bene come tradurlo nelle mie idee e nei miei concetti.
Devo pensarci su. Non capisco come tradurlo nel linguaggio delle mie percezioni e dei miei concetti.
Inoltre, il passaggio dai tick alle barre riduce di molto il potere predittivo.
ma elimina i potenziali conflitti con il dts).
Inoltre, il passaggio dai tick alle barre riduce notevolmente la capacità predittiva.
ma elimina i potenziali conflitti con i dts :)
A proposito, questa è anche un'importante questione pratica e teorica. Si può formulare come una dipendenza del bid-ask spread reale dal volume (liquidità, volatilità), calcolare la regressione corrispondente, confrontare il forex con gli strumenti di borsa, ecc. Un'altra cosa è che è interessante solo per coloro i cui TS scambiano grandi volumi).
Probabilmente vi renderete conto che è un compito computazionale assolutamente immenso addestrare un gran numero di varianti per un gran numero di momenti nel tempo per tutta la durata della storia. Anche se per miracolo si riuscisse a raccogliere tutte queste statistiche, si porrebbe il problema di una sistematizzazione significativa di questo mucchio di informazioni. Sicuramente una diversa lunghezza della storia risulterà ottimale per ogni momento. E come interpretarla e, soprattutto, come estrapolarla nel futuro?
Vorrei fare il percorso inverso, cioè trovare un'euristica per ridurre drasticamente il numero di varianti per la lunghezza della storia di allenamento (letteralmente a poche varianti).
Il problema dell'esperimento è risolvibile, ho fatto qualcosa di simile.
All'epoca mi venne l'idea che avrei dovuto studiare dei metodi per stimare la comparabilità del campione. Ma non sono riuscito a implementarlo, perché non capivo la formula.
Il problema dell'esperimento è risolvibile, ho fatto qualcosa di simile.
È tecnicamente risolvibile, probabilmente. Il problema è come interpretare i risultati di un tale esperimento.
Allora mi è venuta l'idea che dovremmo studiare dei metodi per valutare la comparabilità di un campione. Ma non riuscivo a realizzarlo - non capivo la formula.
Matstat ha molti test per verificare l'omogeneità dei campioni, ad esempio. Se ovviamente ho capito bene la sua terminologia.
A proposito, anche questa è un'importante questione pratica e teorica. Si può formulare come una dipendenza del bid-ask spread reale dal volume (liquidità, volatilità), calcolare la regressione corrispondente, confrontare il forex con gli strumenti di borsa e così via. Un'altra cosa è che è interessante solo per coloro i cui TS scambiano grandi volumi).
È una tale confusione da risultare incomprensibile. Da dove prendono queste quotazioni con i volumi, quali fornitori usano, se esistono o meno, e tutto il resto. Alla fine, anche se dovesse funzionare, banneranno un TS così tossico come tutti gli altri su principi analoghi.
Credo che fxsaber abbia scritto che i problemi iniziano con alcuni grandi fatturati. Forse i vostri TS sono stati vittime di una popolarità troppo alta tra i copisti)