L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2106

 
Vladimir Perervenko:

Dove si va?

Beh, non per minimizzare l'RMSE o qualsiasi altra cosa, ma per metterci il tuo canestro di fitness.

 
Vladimir Perervenko:

Com'è?

Sto solo prevedendo il modello 500 punti avanti.

È facile fare una previsione a 4 sinusoidi (modello), di fatto una previsione lineare.

 
mytarmailS:

L'ho cancellato, ho pensato che nessuno fosse interessato, posso inviarvi il codice, ma ho bisogno di tradurlo in forma leggibile

A proposito, ho affrontato l'instabilità del metodo di ricottura, non so nemmeno come lavorarci, i risultati sono molto instabili, i parametri saltano molto...


Sono arrivato a questo

Prima inizializzo in modo casuale il punto di partenza,

poi quando si trova una soluzione la salvo

Poi ricomincio il burnout, ma con i parametri di partenza della soluzione trovata, e così via...

Per favore, scrivetemi una riga.

La ricottura è instabile. Usare rgenout. Testato, affidabile.

I modelli applicano la funzione di perdita. Scrivi il tuo e se il modello ti permette di inserire la tua funzione di perdita, provalo.

 
mytarmailS:

Sto solo facendo una previsione di 500 punti del modello risultante

ma penso di scambiare solo i primi 1-2 scambi

e devono imparare a trovare i parametri

 
Maxim Dmitrievsky:

Si possono usare 2 modelli diversi

Ho provato a insegnarlo separatamente usando la mia strategia di base - i risultati sono stati peggiori, penso a causa del campionamento sbilanciato - ottengo troppi zeri e imparo da loro.

Voglio provare un'altra variante: insegnare la direzione con un modello separato. Si scoprirà che il primo modello si allena sulla volatilità, e il secondo sul suo vettore. Ma di nuovo, la dimensione del campione dovrebbe essere grande.

 
Aleksey Vyazmikin:

Ho provato a insegnare la mia strategia di base separatamente - i risultati sono stati peggiori, penso a causa di un campionamento sbilanciato - ci sono troppi zeri e l'allenamento si basa su di essi.

Voglio provare un'altra opzione: insegnare la direzione con un modello separato. Si scoprirà che il primo modello si allena sulla volatilità, e il secondo sul suo vettore. Ma di nuovo, il campione dovrebbe essere grande.

Per le classi sbilanciate si può usare il sovracampionamento. Ho fatto girare entrambi i modelli 2 e 3, non c'è essenzialmente nessuna differenza
 
Maxim Dmitrievsky:
È possibile utilizzare il sovracampionamento per le classi sbilanciate. Ho usato sia il modello 2 che il modello 3, non c'è essenzialmente nessuna differenza.

Cioè le righe duplicate con obiettivo "1"? Provato - il mio risultato non è cambiato affatto con CatBoost. Probabilmente bisogna aggiungere un po' di rumore.

 
Aleksey Vyazmikin:

Cioè linee duplicate con un obiettivo "1"? Provato - il mio risultato non è cambiato affatto con CatBoost. Probabilmente bisogna aggiungere un po' di rumore.

Non duplicare. Googlando il sovracampionamento, ad esempio SMOTE. Anch'io, non impara quando lo squilibrio è grande. Dopo il sovracampionamento tutto va bene.
 
Aleksey Vyazmikin:

Cioè linee duplicate con un obiettivo "1"? Provato - il mio risultato non è cambiato affatto con CatBoost. Probabilmente bisogna aggiungere un po' di rumore.

È così che dovrebbe essere. Il bilanciamento per classe di NS è necessario. Gli alberi andranno benissimo.
 
Maxim Dmitrievsky:
Nessuna duplicazione. Googlando oversampling, come SMOTE. Inoltre non imparo con grandi squilibri. Dopo il sovracampionamento, tutto va bene.

Ebbene sì, essenzialmente aggiungendo rumore alla metrica del predittore. Potrebbe influenzare i limiti di quantizzazione aumentando la selezione delle aree con uno, ma per idea lo stesso effetto dovrebbe essere con l'aggiunta di duplicati, l'unica cosa che assumo è che i duplicati sono tagliati dall'algoritmo CatBoost prima di iniziare l'apprendimento (necessità di verificare), quindi sì - opzione.