L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2637
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Supponiamo di aver trovato dei modelli che si verificano periodicamente e che accompagnano un particolare movimento di prezzo una volta che si verificano.
Qualcuno ha fatto qualche ricerca sulla relazione tra la frequenza del verificarsi di un modello e l'evento successivo?
Stiamo parlando di cluster di probabilità, se esiste un termine simile.
Supponiamo che possiamo aspettarci che se un pattern non è apparso per molto tempo, ci sarà un prevedibile (concomitante) movimento di prezzo dopo che si è verificato, e poi ci sarà un fading, poiché il pattern è diventato visibile a tutti e ha quindi eliminato le inefficienze del mercato.
Penso che lo sviluppo di metriche per valutare questi stati transitori nel tempo (da previsioni più probabili a previsioni ugualmente probabili o addirittura negative) possa aiutare a trovare e selezionare tali modelli, e un modello che possa renderne conto potrebbe rivelarsi abbastanza efficace.
Sto lavorando in questa direzione, ma mi manca l'apparato matematico e le conoscenze teoriche.
Posso lavorare solo con modelli molto semplici, come il movimento dopo la rottura di un vertice. Nel senso che dovrebbero essercene abbastanza perché la frequenza serva come una buona stima della probabilità.
Dalle mie osservazioni, quando il pattern marking è completamente formalizzato, le inefficienze di mercato (nel senso di essere diverse da SB) diventano poco significative. Convenzionalmente parlando, all'interno dello spread. C'è un desiderio naturale di rendere il disegno del modello più complesso, ma questo di solito porta a una dimensione ridotta del campione e a risultati instabili.
Pensate a caratteristiche come gli incrementi, ma più informativi. Per esempio, trova il prezzo medio di tutta la storia e deduci il resto. Avete bisogno della massima variazione, ma deve essere all'interno di un intervallo che è noto con i nuovi dati.
Mi ricorda la teoria dello spread trading. E c'è una matematica piuttosto complicata, a giudicare dalla pletora di articoli artificiosi sull'argomento.
Ma sarà qualcosa come uno z-score, quando c'è solo stazionarietà sulla storia? Anche se, naturalmente, i tentativi di portare alla stazionarietà non possono essere evitati in linea di principio - senza di essa, non si può fare molto commercio.
Mi ricorda la teoria dello spread trading. E c'è una matematica piuttosto complicata, a giudicare dalla pletora di articoli artificiosi sull'argomento.
Ma sarebbe qualcosa come lo z-score quando c'è solo stazionarietà sulla storia, vero? Anche se, naturalmente, cercare di raggiungere la stazionarietà è impossibile in linea di principio - non si può davvero fare trading senza di essa.
Si può lavorare solo con modelli molto semplici, come il movimento dopo la rottura di un top. Nel senso che ce ne devono essere abbastanza perché la frequenza serva come una buona stima della probabilità.
Quanti sono sufficienti? Supponiamo che io abbia dal 5% a circa il 15% nel campione che seleziona semplici "pattern", e il campione per l'allenamento, diciamo 15k esempi, è troppo poco?
La mia osservazione è che quando il markup del modello è completamente formalizzato, le inefficienze del mercato (nel senso di differenze da SB) diventano poco significative. Convenzionalmente parlando, all'interno dello spread. C'è un desiderio naturale di rendere il disegno del modello più complesso, ma questo di solito porta a una dimensione ridotta del campione e a risultati instabili.
La questione è come formalizzare meglio queste osservazioni per ottenere risultati rapidamente e per scartare/classificare i modelli con o senza regolarità.
Quanto è sufficiente? Supponiamo che io abbia dal 5% a circa il 15% in un campione di "pattern" semplici, e che il campione per l'addestramento sia di 15k esempi, è troppo poco?
È meglio contare in pezzi di schemi. Le stesse rotture di modello (significative per il lavoro) non possono verificarsi più di qualche centinaio all'anno. Lo chiamerei un numero limitante. Se si prova a farne dei modelli più complicati - per esempio, una coppia di nodi che sfondano, che soddisfano anche alcune condizioni, allora potrebbero essere decine all'anno. E questo non basta.
La questione è come formalizzare meglio queste osservazioni per ottenere rapidamente dei risultati e per scartare/classificare i modelli con e senza un modello.
Qualcosa come un ciclo su tutte le possibili costruzioni di un modello di un dato tipo? Ho fatto qualcosa di simile una volta con le stesse suddivisioni dei vertici. In linea di principio, è possibile pensare a qualcosa, ma la ricerca sarà (in generale) non iterativa, ma ricorsiva. Di nuovo, la maggior parte dei modelli sarebbe priva di significato a causa della complessità e della rarità. È probabilmente più facile raccogliere manualmente una lista di modelli significativi e bypassarla in un ciclo regolare, scegliendo quello ottimale.
Perché?
Pochi dati reali significativi.
Zy. generare dati con un ambiente casuale dà l'impressione di allungare i dati. Questo è un errore. Tutti i dati che ci sono. 211 barre significa 211 e non di più.
Ciao!
La verità è là fuori... (Fox Mulder "The X-Files")
Ovviamente sei vicino all'obiettivo, devi spingere di più.