L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2406
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Riferimento per le metriche, non conosco alcunihttps://russianblogs.com/article/7586220986/ me stesso
Se i segni sono uniformemente distribuiti in un cubo unitario, la metrica di Chebyshev sembra intuitivamente la più corretta. Un'altra cosa è che è improbabile che caratteristiche arbitrarie possano essere normalizzate così bene.
Se le caratteristiche sono uniformemente distribuite in un cubo unitario, la metrica di Chebyshev sembra intuitivamente essere la più corretta. Un'altra cosa è che è improbabile che normalizzi così bene i segni arbitrari.
Sperimentato con la normalizzazione, ottenendo perdite decenti nei modelli, meglio senza. Quindi foreste di alberi, non reti neurali.
Sperimentato con la normalizzazione, ottenendo perdite decenti nei modelli, meglio senza. Ecco perché le foreste di alberi, non le reti neurali.
Sono anche incline(anche grazie ai vostri sforzi) verso qualcosa come xgboost. Ma la normalizzazione, così come la ricerca preparatoria generale con le caratteristiche, non fa mai male. Ho anche bisogno di un approccio flessibile per costruire una funzione obiettivo personalizzata.
Quindi foreste di alberi, non reti neurali.
Sì, qualche anno fa qualcuno in questo thread ha scritto un'idea del genere - ha suggerito le foreste e ha paragonato le reti neurali alle armi nucleari. Ha detto che dovrebbero essere usati solo quando altri metodi non possono aiutare. Ma qualche Maxim ha fatto la cacca su di lui.
Mi chiedo... Aveva ragione?
Mi sto anche orientando(anche grazie al tuo lavoro) verso qualcosa come xgboost. Ma la normalizzazione, così come il lavoro generale di ricerca preparatoria con le caratteristiche, non fa mai male. Inoltre abbiamo bisogno di un approccio flessibile per la costruzione di funzioni obiettivo personalizzate.
raccomandare LightGBM o CatBoost, XGBoost rimane indietro
Si scopre che qualsiasi pre-elaborazione ucciderà alfa. Questo è se si prendono gli incrementi e si inizia ad asciugarli. L'ideale sarebbe prendere la serie originale (citazioni), ma non è possibile allenarla a causa della sua non stazionarietà. Questo si vede bene nell'articolo sulla differenziazione frazionaria (grok the market memory). Più trasformazioni vengono applicate, meno qualcosa rimane lì.
Sì, qualche anno fa qualcuno in questo thread ha scritto un pensiero simile - ha suggerito l'impalcatura e ha paragonato le reti neurali alle armi nucleari. Ha detto che dovrebbero essere usati solo quando gli altri metodi non possono ottenere nulla. Ma qualche Maxim ha fatto la cacca su di lui.
Mi chiedo... Aveva ragione?
È meglio che tu dia qualche prova, non ho idea di cosa stesse parlando.
Conclusioni simili - solo alberi. È particolarmente divertente quando le massime vengono aggiornate e tutto si sposta. Naturalmente è possibile impostare i massimi manualmente o automaticamente (per ogni caratteristica), ma è una stampella.
Sì, non importa che si riveli una sciocchezza