L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3287

 
Forester #:

Uso Valking Forward per le stesse ragioni.
E sì, dipende fortemente dalle dimensioni della sezione del treno. Ad esempio, su 20000 linee viene trovato qualcosa sull'avanzamento, ma su 5000 o 100000 - a caso.

Se "qualcosa" viene trovato, qual è la sua vita al di fuori dell'allenamento?

 
Maxim Dmitrievsky #:
😀

Non so nemmeno cosa significhino i quadrati. Probabilmente è quello che scrive il tizio della mela :)

 
Aleksey Vyazmikin #:

Se si trova "qualcosa", qual è la sua durata di vita al di fuori dell'insegnamento?

Mi limito a riqualificare il modello una volta alla settimana. Potrebbe vivere più a lungo, non ho fatto ricerche in merito.... ma potrebbe essere inferiore ed è necessario riqualificare come SanSanych su ogni barra (se H1, è possibile in linea di principio).
Per me una volta alla settimana è accettabile in termini di velocità - 5 anni per 260 riqualificazioni passano circa.
 
Aleksey Vyazmikin #:

Possiamo concludere provvisoriamente che il successo della formazione dipende dalla dimensione del campione. Tuttavia, noto che i risultati del campione "-1p1-2" sono paragonabili, e persino migliori secondo alcuni criteri, rispetto al campione "-1p2-3", mentre per il campione "0p1-2" i risultati sono due volte peggiori in termini di numero di modelli che soddisfano il criterio dato.

Ora ho eseguito un campione con cronologia invertita, in cui il campione train consiste nel campione iniziale exam+test+train_p3, mentre il campione test è train_p2 e l'exam è train_p1. L'obiettivo è vedere se è possibile costruire un modello di successo su dati più recenti che avrebbe funzionato 10 anni fa.

Quale pensate che sarà il risultato?

Non ho dovuto aspettare molto: il risultato è nell'ultima colonna della tabella.

Cercherò di commentare in modo non parziale. Da un lato, possiamo dire che cambiare la cronologia del campione ha peggiorato significativamente i risultati in base al criterio principale - il numero di modelli adatti, ma dall'altro, il fatto stesso che tali modelli siano stati trovati dice che ci sono alcuni modelli stabili nei dati. Oppure è casuale? Sì, certo, dobbiamo prendere altri campioni e condurre studi simili, e solo allora potremo trarre conclusioni con maggiore sicurezza. Per ora, queste sono solo informazioni su cui riflettere.

Oggettivamente, ci sono molti dati - di solito uso multipli di campioni più piccoli per l'allenamento, anche se paragonabili al corso cronologico. Più triste appare il tasso di richiamo in tutti gli esperimenti. Sono persino sorpreso che nessuno vi abbia prestato attenzione. In generale, possiamo ripetere che le metriche standard danno una scarsa indicazione del risultato finanziario se non si utilizzano takeout e stop fissi.

Se avete qualche idea/desiderio su cosa combinare qui (grafici di esempio) con qualcosa, ditemelo - cercherò di verificare cosa succederà.

 
Forester #:
Mi limito a riqualificare il modello una volta alla settimana. Potrebbe vivere più a lungo, non l'ho studiato.... ma forse meno ed è necessario riqualificare come SanSanych ad ogni barra (se H1, allora in linea di principio è possibile).
Per me una volta alla settimana è accettabile in termini di velocità - per 260 riqualificazioni passano circa 5 anni.

Qual è il risultato di tale riqualificazione in aggregato?

 
Aleksey Vyazmikin #:

Qual è il risultato di questa riqualificazione nel complesso?

Tutti i grafici che ho mostrato nell'ultimo anno sono stati ottenuti in questo modo. Solo OOS da Valking-forward.
 
Andrey Dik #:

Max, non capisco perché mi prendi in giro.

Se non ci sono presupposti - non dire nulla, se ci sono - dillo, tipo "il risultato farà schifo".

Se è divertente, puoi ridere, se è triste, puoi piangere.

Ciò che Aleksey Vyazmikin sta discutendo qui non può causare suggerimenti ed è impossibile valutare "merda - non merda".

Esempio: un uomo si presenta e dice:

- mandiamo un ferro da stiro sulla luna.

Noi guardiamo con sorpresa.

E l'uomo dice:

- e cambieremo la temperatura del ferro e ci metteremo dentro diverse quantità d'acqua.

Reagirete "se non ci sono ipotesi - tacere, se ci sono - parlare, come "il risultato sarà di merda"?

Quello che fa leksey Vyazmikin non ha nulla a che fare con i problemi del Ministero della Difesa. Prende spunto da un'opera e cerca di ottenere una risposta da un'altra opera - tutte chiacchiere vuote di un uomo con un pasticcio in testa.

 
Forester #:
Tutti i grafici che ho mostrato nell'ultimo anno sono stati ottenuti in questo modo. Solo OOS da Valking Forward.

A giudicare dalle immagini, anche il Recall è basso, cioè il modello ha poca fiducia in qualcosa ed è molto cauto nelle previsioni.

 
Forester #:
Mi limito a riqualificare il modello una volta alla settimana. Potrebbe vivere più a lungo, non l'ho studiato.... ma forse meno ed è necessario riqualificare come SanSanych ad ogni barra (se H1, allora in linea di principio è possibile).
Per me una volta alla settimana è accettabile in termini di velocità - per 260 riqualificazioni passano circa 5 anni.

Ho scoperto un problema fondamentale: guardare avanti. Si manifesta nel modo seguente: prendiamo pezzi di un grande file, li insegniamo, poi li testiamo, li controlliamo - tutto è normale, l'errore è più o meno lo stesso. Ma non appena si esegue al di fuori di questi tre file, che sono pezzi di un unico grande file, il risultato è fondamentalmente diverso, di solito catastrofico.

Se ci riqualifichiamo a ogni passo, il problema del "guardare avanti" viene eliminato, perché la predizione viene fatta sugli stessi valori dei predittori dell'addestramento.

Se invece non si esegue l'apprendimento a ogni passo, tutti i predittori, compresa la sezione di addestramento, vengono istruiti su alcuni valori e poi predetti su di essi. Ed ecco la domanda: i nuovi valori dei predittori coincideranno o meno con i valori dei predittori nel grafico di apprendimento?

 
СанСаныч Фоменко #:

Qui ho scoperto un problema fondamentale: guardare avanti. Si manifesta nel modo seguente: prendiamo pezzi di un file di grandi dimensioni, li studiamo, poi li testiamo, li controlliamo - tutto è normale, l'errore è approssimativamente lo stesso. Ma non appena eseguiamo al di fuori di questi tre file, che sono pezzi di un unico grande file, il risultato è fondamentalmente diverso, di solito catastrofico.

Se ci riqualifichiamo a ogni passo, il problema di "guardare avanti" viene eliminato, perché la previsione viene eseguita sugli stessi valori del predittore dell'addestramento.

Se invece non si effettua l'apprendimento a ogni passo, tutti i predittori, compresa la sezione di addestramento, vengono istruiti su alcuni valori e poi predetti su di essi. Ed ecco la domanda: i nuovi valori dei predittori coincideranno o meno con i valori dei predittori nel grafico di apprendimento?

Dove si trova il tuo approfondimento?

L'ho letto un paio di volte e non ho visto la logica dietro le parole.

Inventano problemi - poi li risolvono eroicamente - uno guarda al futuro, l'altro cerca il markup perfetto....