L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2387

 
Aleksey Vyazmikin:

Se non capisci dalla descrizione, fai domande su ciò che non è chiaro - cercherò di spiegare meglio.

Ho fatto la stessa cosa un paio di anni fa, e ho rinunciato a causa del lavoro che comporta, non dell'inutilità.

Qui sotto c'è una tabella dei risultati del vecchio esperimento, il lavoro va così:

1. Il numero di predittori è tagliato in 9 pezzi.

2. Si creano combinazioni tra chunks - 512

3. Poi si fa una stima di come i campioni si comportano in media con la presenza/assenza di ogni pezzo.

4. Viene fatta un'ipotesi sul significato del chunk (positivo/negativo).

5. I pezzi significativi sono suddivisi in pezzi più piccoli, e quelli meno significativi sono combinati in un unico pezzo (non è detto che debbano andare in ordine)

6. Si formano nuove combinazioni 512

7. Se viene trovato un piccolo pezzo che influisce negativamente sul campione, viene escluso da un'ulteriore enumerazione fino a quando il miglioramento del risultato si ferma, poi i pezzi esclusi possono essere provati aggiungendo e analizzando il risultato allo stesso modo. Le influenze positive, invece, sono aggregate in un unico gruppo.

Ecco un esempio del cambiamento degli indicatori con 32 iterazioni di questo tipo.



Il metodo può ovviamente essere migliorato, ma questo richiede la sperimentazione e i risultati del suo esito.

Sì, il miglioramento non è per tempi, ma i risultati permettono anche di pensare a quali predittori sono migliori o peggiori per il risultato e perché.

E, voglio provare a lavorare specificatamente con le statistiche di CatBoost e rimuovere/aggiungere predittori (e i loro gruppi) proprio per il motivo che potrebbe essere più veloce dell'enumerazione che ho usato in precedenza.

Un altro vantaggio è che troppi predittori portano a spaccature rare, e l'attivazione delle foglie può essere molto rara nel campione al di fuori dell'addestramento (mostrato sullo screenshot prima), che diminuisce deliberatamente la qualità dell'addestramento e la sua valutazione.

È un po' complicato.
In che modo è meglio che testare semplicemente tutte le caratteristiche aggiungendone 1?
Prima allenarsi 1000 volte (con 1000 caratteristiche da testare) su 1 caratteristica, trovare la migliore. Poi 999 volte sul chip migliore e 999 volte sul resto, scegli il secondo migliore. Poi sui primi 2 e il terzo dei 998 rimasti, ecc.
Un totale di 2 cicli annidati.
I modelli con un piccolo numero di caratteristiche imparano molto rapidamente. Ne otterrete 20-30 in un lasso di tempo ragionevole. E dopo 10-20 caratteristiche selezionate, i modelli di solito smettono di migliorare, l'aggiunta di nuove caratteristiche dopo di loro peggiora solo il risultato.
 
Maxim Dmitrievsky:

Un'inutile perdita di tempo

Chiaramente, non ci sarà alcuna discussione costruttiva - non c'è alcun desiderio di andare a fondo della questione.

 
Aleksey Vyazmikin:

Chiaramente, non ci sarà alcuna discussione costruttiva - non c'è alcuna volontà di capire il punto.

Non c'è nessun desiderio di soffrire stronzate, il punto è chiaro (soffrire stronzate)

 
elibrarius:
Qualcosa di complicato.
In che modo è meglio che testare semplicemente tutte le caratteristiche aggiungendone 1?
Prima allenarsi 1000 volte (con 1000 caratteristiche da testare) su 1 caratteristica, trovare la migliore. Poi 999 volte sul chip migliore e 999 volte sul resto, scegli il secondo migliore. Poi sui primi 2 e il terzo dei 998 rimasti, ecc.
Un totale di 2 cicli annidati.
I modelli con un piccolo numero di caratteristiche imparano molto rapidamente. Ne otterrete 20-30 in un lasso di tempo ragionevole. E dopo 10-20 caratteristiche selezionate, i modelli di solito smettono di migliorare, l'aggiunta di nuove caratteristiche dopo di loro peggiora solo il risultato.

Non stiamo cercando il migliore, ma una combinazione di caratteristiche, e questo è il problema. Perché è un problema, perché è impossibile provare tutte le combinazioni, ecco perché è necessario il metodo eurestico. Un altro problema è la potenziale forte somiglianza dei diversi predittori dopo averli divisi, che negli ensemble porterà a una sovrastima della probabilità, perché ci saranno molte foglie intrinsecamente correlate.

 

l'uomo ha deciso di reinventare il boosting con il boosting, non fermiamolo

gli appelli al buon senso non hanno aiutato

 
Maxim Dmitrievsky:

nessun desiderio di soffrire stronzate, il punto è chiaro (soffrire stronzate)

Perché le stronzate?

Fa la differenza - sì, la fa.

C'è una giustificazione teorica - sì, c'è.

Certo, non è un miglioramento di un ordine di grandezza.

E sì, può essere poco efficace per i vostri predecessori - qui posso ammettere la logica del rifiuto.

 
neuro è in fiamme ))
dimenticare il trading, trasformare la rete neurale in un indicatore

 
Aleksey Vyazmikin:

Perché le stronzate?

Fa la differenza - sì, la fa.

C'è una giustificazione teorica - sì, c'è.

Certo, non è un miglioramento di un ordine di grandezza.

E sì, può essere marginalmente efficace per i tuoi predittori - qui posso permettere una logica di rifiuto.

ha già detto tutto, non interferirò nel provare troppo di ciò che non si può scegliere

 
Aleksey Vyazmikin:

Non bisogna cercare il migliore, ma una combinazione dei due - questo è il problema. Perché è un problema, perché è impossibile provare tutte le combinazioni, ecco perché abbiamo bisogno del metodo eurestico. Un altro problema è la potenziale forte somiglianza dei diversi predittori dopo la suddivisione, che negli ensemble porterà alla sovrastima della probabilità, perché ci saranno molte foglie essenzialmente correlate.

Una volta scelto il primo chip migliore, il secondo sarà scelto con la migliore interazione insieme al primo, e così via. Una volta raggiunto il numero di 10, il prossimo sarà scelto con la migliore interazione con quello dei 10 scelti in precedenza, ma molto probabilmente con tutti.
 
elibrarius:
Dopo aver selezionato la prima caratteristica migliore, la seconda sarà quella con la migliore interazione con la prima, e così via quando si arriva a 10. Il prossimo sarà quello con la migliore interazione con quello che è stato selezionato prima, ma molto probabilmente con tutti.

non funziona così

togliere le caratteristiche di bassa importanza dal modello e romperlo, poi confrontare il culo con il pollice, e così via