L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2406

 
L'entropia è stata a lungo utilizzata ovunque come perdita fi o entropia incrociata. Inoltre, tutto questo non ha importanza nelle file con la legge galleggiante, se lo fa, è di secondaria importanza. La soluzione si trova sulla superficie e una delle varianti è già stata suggerita in questo thread, shakily-villy funziona. Non dirò ancora i dettagli, ma un giorno scriverò un articolo. Z.I. Probabilmente si è un po' eccitato per la superficie, ma almeno per me 😀
 
Riferimento alle metriche, non ne conosco alcune iohttps://russianblogs.com/article/7586220986/
 
Maxim Dmitrievsky:
Riferimento per le metriche, non conosco alcunihttps://russianblogs.com/article/7586220986/ me stesso

Se i segni sono uniformemente distribuiti in un cubo unitario, la metrica di Chebyshev sembra intuitivamente la più corretta. Un'altra cosa è che è improbabile che caratteristiche arbitrarie possano essere normalizzate così bene.

 
Aleksey Nikolayev:

Se le caratteristiche sono uniformemente distribuite in un cubo unitario, la metrica di Chebyshev sembra intuitivamente essere la più corretta. Un'altra cosa è che è improbabile che normalizzi così bene i segni arbitrari.

Ho sperimentato la normalizzazione e ho ottenuto perdite decenti nei modelli, sono migliorato senza di essa. Ecco perché le foreste di alberi, non le reti neurali.
 
Maxim Dmitrievsky:
Sperimentato con la normalizzazione, ottenendo perdite decenti nei modelli, meglio senza. Quindi foreste di alberi, non reti neurali.
Conclusioni simili - solo alberi. Specialmente divertente quando le massime sono aggiornate e tutto si sposta. Naturalmente si possono impostare i massimi manualmente o automaticamente (per ogni caratteristica), ma sono stampelle.
 
Maxim Dmitrievsky:
Sperimentato con la normalizzazione, ottenendo perdite decenti nei modelli, meglio senza. Ecco perché le foreste di alberi, non le reti neurali.

Sono anche incline(anche grazie ai vostri sforzi) verso qualcosa come xgboost. Ma la normalizzazione, così come la ricerca preparatoria generale con le caratteristiche, non fa mai male. Ho anche bisogno di un approccio flessibile per costruire una funzione obiettivo personalizzata.

 
Maxim Dmitrievsky:
Quindi foreste di alberi, non reti neurali.

Sì, qualche anno fa qualcuno in questo thread ha scritto un'idea del genere - ha suggerito le foreste e ha paragonato le reti neurali alle armi nucleari. Ha detto che dovrebbero essere usati solo quando altri metodi non possono aiutare. Ma qualche Maxim ha fatto la cacca su di lui.

Mi chiedo... Aveva ragione?

 
Aleksey Nikolayev:

Mi sto anche orientando(anche grazie al tuo lavoro) verso qualcosa come xgboost. Ma la normalizzazione, così come il lavoro generale di ricerca preparatoria con le caratteristiche, non fa mai male. Inoltre abbiamo bisogno di un approccio flessibile per la costruzione di funzioni obiettivo personalizzate.

raccomandare LightGBM o CatBoost, XGBoost rimane indietro

Si scopre che qualsiasi pre-elaborazione ucciderà alfa. Questo è se si prendono gli incrementi e si inizia ad asciugarli. L'ideale sarebbe prendere la serie originale (citazioni), ma non è possibile allenarla a causa della sua non stazionarietà. Questo si vede bene nell'articolo sulla differenziazione frazionaria (grok the market memory). Più trasformazioni vengono applicate, meno qualcosa rimane lì.

 
Dmytryi Nazarchuk:

Sì, qualche anno fa qualcuno in questo thread ha scritto un pensiero simile - ha suggerito l'impalcatura e ha paragonato le reti neurali alle armi nucleari. Ha detto che dovrebbero essere usati solo quando gli altri metodi non possono ottenere nulla. Ma qualche Maxim ha fatto la cacca su di lui.

Mi chiedo... Aveva ragione?

È meglio che tu dia qualche prova, non ho idea di cosa stesse parlando.

 
elibrarius:
Conclusioni simili - solo alberi. È particolarmente divertente quando le massime vengono aggiornate e tutto si sposta. Naturalmente è possibile impostare i massimi manualmente o automaticamente (per ogni caratteristica), ma è una stampella.

Sì, non importa che si riveli una sciocchezza