L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 127
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Come l'avete determinato? Avete monitorato le prestazioni dei vostri predittori sul futuro allora sconosciuto?
Perché non un futuro conosciuto? Tutto è noto sulla storia. Lo imparo su 1-10 chunk, e lo controllo su crossvalidation. E poi ottengo statistiche su 11, 12, ecc. e le confronto con quello che ho ottenuto sui pezzi da 1 a 10. Cioè una completa analogia con il trading reale. L'ho descritto spesso su questo thread.
Sì, beh, è quello che ho pensato.
E quante diverse varianti del modello si passano in questo modo? Succede che sull'11°, 12°, ecc. chunks il modello si comporta peggio che sul chunk di allenamento e si ricomincia da capo?
Sì, beh, è quello che ho pensato.
E quante diverse varianti del modello si passano in questo modo? Succede mai che sui chunks 11, 12. ecc. il modello si comporta peggio che sul chunk di allenamento e si ricomincia da capo?
La variazione è di circa il 2-3% con una media del 27-28%. È la variazione come deviazione dalla media.
Quello che scrivi è che dovrebbe ridurre l'errore di apprendimento. Non l'ho fatto. Per i miei predittori GBM è il migliore, poi ada. Io uso l'rf. Seguono SVM e il peggiore di tutti nnet. Come potete vedere non sto usando il modello migliore.
La variazione è di circa il 2-3% con una media del 27-28%. È la variazione come deviazione dalla media.
Quello che scrivi è che dovrebbe ridurre l'errore di apprendimento. Non l'ho fatto. Per i miei predittori GBM è il migliore, poi ada. Io uso l'rf. Seguono SVM e il peggiore di tutti nnet. Come potete vedere non sto usando il modello migliore.
Bene, ok. SanSanych.
Se tutti i tuoi modelli sono convalidati più o meno allo stesso modo, non hai bisogno di ballare.
Ho messo l'informazione là fuori per farvi riflettere. Lo uso, mi metto alla prova e mi salvo dagli errori.
Se vi aiuterà o meno - non lo so.
Penso che le informazioni non siano le più inutili.
Bene, ok. SanSanych.
Se tutti i vostri modelli convalidano quasi allo stesso modo, non c'è bisogno di una danza del tamburello.
Ho disposto le informazioni per dargli un senso. Lo uso, mi metto alla prova e mi salvo dagli errori.
Se vi aiuterà o meno - non lo so.
Penso che le informazioni non siano le più inutili.
Ho seguito tutti i tuoi post con grande interesse.
E buona fortuna.
Ho seguito tutti i tuoi post con grande interesse.
Buona fortuna.
Grazie.
Cosa siano i "processi complessi" non lo capisco. Ho un vero EA agganciato nel terminale ad una quota... Quello che mi danno è quello che mastichiamo.
Ho già scritto che uso la predizione nel TS sul vecchio TF, che ha tre finestre. La TF senior stabilisce la direzione. Ma a parte questo, EA ha un set di strumenti abbastanza grande, il cui scopo è la gestione del rischio. Per questo non posso dire con certezza quale percentuale di errore di previsione della prossima candela appartenente alla direzione di ZZ influenza il risultato totale, ma non mi interessa.
Ripeto il mio post precedente. Gli strumenti R, in particolare l'apprendimento automatico, cerco di usarli per risolvere problemi specifici di una certa EA. Non in generale, ma uno specifico. È molto probabile che in altri TS i miei approcci non funzionino.
Sul futuro...
Funziona da dicembre e ha un volo normale. A differenza dell'indicatore che si trovava in questo posto nell'Expert Advisor, c'è uno strumento che viene riqualificato. Il ritardo è stato eliminato. Non è abbastanza? Un colossale passo avanti. È la verità in ultima istanza? No, certo che no.
Sì.
Un ciclo di apprendimento con validazione incrociata M1 su 10 falli, avete capito bene. Per ogni combinazione di parametri di apprendimento: su 9 falli imparare, su un controllo ritardato. Quindi 10 volte. Otteniamo il valore medio della metrica di qualità su 10 pieghe. Chiamiamolo m1.
Lo faccio in modo simile, ma non sposto la finestra di prova, ma una finestra di allenamento. Al centro avrò sempre una finestra di allenamento in movimento, mentre i dati di test la circondano su entrambi i lati. Credo che se le dipendenze non sono costanti, e alcuni "periodi dominanti" fluttuano costantemente avanti e indietro (secondo mytarmailS, io stesso non sono bravo in frequenze e Fourier) - allora non ha senso allenarsi su situazioni estreme (nel tempo), e testare su qualcosa nel mezzo, che potrebbe essere approssimato da un modello da varianti estreme. Per l'allenamento prendo anche molto meno del 50% dei dati, anche questo va bene (almeno non peggio).
Io uso qualcosa come il loop esterno di questa foto, ma allenandomi sul blu e testando sul grigio. Sto cercando di garantire che qualsiasi 30% di dati sequenziali che prendo per l'allenamento, il modello dovrebbe essere in grado di commerciare con profitto sul resto dei dati. C'è una teoria secondo la quale se posso addestrare un modello che commercia bene sull'intero periodo usando un qualsiasi 10% di dati successivi per l'addestramento, esso commercerà bene anche sui nuovi dati.
Il metodo è il seguente (tutto ciò che segue si applica ugualmente sia alla ML che alla TS classica) .............
L'ho letto tre volte, ma non lo capisco ((
1) Sembra che questo non sia puramente il ML, è come un miglioramento di qualche TS esistente, che ha segnali per entrare, e solo su questi ingressi entriamo e questi ingressi analizziamo il ML giusto?
2) Quando c'è un profitto chiudiamo il trade. Quando il trade è in perdita manteniamo la posizione, perché dovremmo farlo?
3) Quando comprare, quando vendere?
Posso fare lo scemo, ne vado pazzo), ma non capisco quello che hai scritto, forse potresti mostrarmi un'immagine o uno schema...
Mi sono imbattuto in un blog e ho quasi pianto, l'uomo stava facendo quasi la stessa idea che avevo pensato una volta e deciso di implementare, ed è stata questa idea che ho iniziato a imparare la programmazione circa un anno fa
https://www.r-bloggers.com/time-series-matching-with-dynamic-time-warping/
E pensavo che la mia idea fosse unica))) gioventù, ingenuità... Naturalmente non ho usato DTW, perché non l'ho capito per niente