L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3152
![MQL5 - Linguaggio delle strategie di trading integrato nel client terminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Se non si capisce qualche simbolo, si può chiedere a chatgpt di decodificare la formula.
Y|T = 1 risultati del gruppo di test (con tritolo)
Y|T = 0 - gruppo di controllo (senza)
Y - etichetta di classe, Y0,Y1 - etichette di classe senza e con il tritolo
T - tritolo inserito nel modello (incluso il predittore) o non inserito (1;0)
E - aspettativa
Dividere in qualsiasi punto quando si divide per test e training
Se non si effettua la miscelazione, si ottiene una stima distorta di ATE+bias
L'ATE è l'effetto medio del trattamento dell'esposizione.
Sonnolento, forse ho confuso le lettere, ma la logica dovrebbe essere chiara.
Continuo a non capire l'idea di dividere in qualsiasi punto del campione. Dopo tutto, il punto, mi sembra, è trovare proprio il punto in cui l'effetto del fattore è cambiato. Forse è necessario scorrere diverse parti del campione e usare la genetica per trovare quella che è stata influenzata di recente dal fattore predittivo?
Prima ha accusato gli altri di non dire la verità, ma lei stesso non chiarisce il significato di queste azioni, come vede, ai fini del trading.
Non ho ancora testato nulla al riguardo, poiché è difficile automatizzarlo in MQL5.
Ragazzi, possiamo dire che il MO è un caso speciale di ottimizzazione?
Io credo di sì.
Non so nemmeno di quale codice stiamo parlando.
Continuo a non capire l'idea di dividere in qualsiasi punto del campione. Il punto, a mio avviso, è trovare il momento in cui l'influenza di un fattore è cambiata. Forse dovremmo scorrere le diverse parti del campione e usare la genetica per trovare quella che è stata influenzata dal predittore in un modo nuovo?
Prima ha accusato gli altri di non dire la verità, ma lei stesso non chiarisce il significato di queste azioni, a suo avviso, ai fini del trading.
Non ho ancora testato nulla al riguardo, poiché è difficile automatizzarlo in MQL5.
:)
Hai davanti a te lo stesso identico libro che ho io. Per come la vedo io, l'ha scritto anche lui. Chiedi a mordorator di fare un riassunto se l'hai perso.bannato, 12 ore dopo non bannato e poi bannato di nuovo.
Che cosa è stato?
bannato, 12 ore dopo non bannato e poi di nuovo bannato.
Che cosa è stato?
Un mese va bene, lascia che vada avanti, nuovo account.
Mi sono imbattuto nel pacchetto di preelaborazione delle ricette in R. Un elenco impressionante di passi di pre-elaborazione da questo pacchetto:
#> [ 1] "step_BoxCox" " step_YeoJohnson "
#> [ 3] "step_arrange" " step_bagimpute "
#> [ 5] "step_bin2factor" " step_bs "
#> [ 7] "step_center" " step_classdist "
#> [ 9] "step_corr " " step_count "
#> [11] "step_cut " " data_passo "
#> [13] "step_depth" " step_discretize "
#> [15] "step_dummy" " step_dummy_extract "
#> [17] "step_dummy_multi_choice" "step_factor2string "
#> [19] "step_filter" " step_filter_missing "
#> [21] "step_geodist" " step_harmonic "
#> [23] "step_holiday" " step_hyperbolic "
#> [25] "step_ica" " step_impute_bag "
#> [27] "step_impute_knn" " step_impute_linear "
#> [29] "step_impute_lower" " step_impute_mean "
#> [31] "step_impute_median" " step_impute_mode "
#> [33] "step_impute_roll" " step_indicate_na "
#> [35] "step_integer" " step_interact "
#> [37] "step_intercept" " step_inverse "
#> [39] "step_invlogit" " step_isomap "
#> [41] "step_knnimpute" " step_kpca "
#> [43] "step_kpca_poly" " step_kpca_rbf "
#> [45] "step_lag" " step_lincomb "
#> [47] "step_log " " step_logit "
#> [49] "step_lowerimpute" " step_meanimpute "
#> [51] "step_medianimpute" " step_modeimpute "
#> [53] "step_mutate" " step_mutate_at "
#> [55] "step_naomit" " step_nnmf "
#> [57] "step_nnmf_sparse" " step_normalize "
#> [59] "step_novel " " step_ns "
#> [61] "step_num2factor" " step_nzv "
#> [63] "step_ordinalscore" " step_other "
#> [65] "step_pca" " step_percentile "
#> [67] "step_pls " " step_poly "
#> [69] "step_poly_bernstein" " step_profile "
#> [71] "step_range" " step_ratio "
#> [73] "step_regex" " step_relevel "
#> [75] "step_relu" " step_rename "
#> [77] "step_rename_at" " step_rm "
#> [79] "step_rollimpute" " step_sample "
#> [81] "step_scale" " step_select "
#> [83] "step_shuffle" " step_slice "
#> [85] "step_spatialsign" " step_spline_b "
#> [87] "step_spline_convex" " step_spline_monotone "
#> [89] "step_spline_natural" " step_spline_nonnegative"
#> [91] "step_sqrt" " step_stringa2fattore "
#> [93] "step_time" " step_unknown "
#> [95] "step_unorder" " step_window "
#> [97] "passo_zv"
Secondo la mia esperienza, l'intensità di lavoro della preelaborazione è molto inferiore (da 3 a 5 volte) rispetto all'intensità di lavoro dell'applicazione del modello stesso.
Cattura il pacchetto di preelaborazione delle ricette da R
Hedley Wickham non fa cazzate
:)
Hai davanti a te lo stesso identico libro che ho io. Per come la vedo io, l'ha scritto anche lui. Chiedi a mordorator di fare un riassunto se l'hai perso.Vedo che invece di discutere e scambiare esperienze cadiamo di nuovo in alcune reazioni emotive.
Hai cancellato il secondo post - volevo dire che non ho visto alcun collegamento con il link che hai dato. Nell'articolo è strano che l'autore non abbia provato le funzioni CB standard per bilanciare il campione. E non si possono trarre conclusioni solo dai risultati di un test su un solo set di dati.Vedo che invece di discutere e scambiare esperienze, cadiamo di nuovo in alcune reazioni emotive.
Hai cancellato il secondo post - volevo dire che non ho visto alcun collegamento con il link che hai dato. Nell'articolo è strano che l'autore non abbia provato le funzioni CB standard per bilanciare il campione. E non si possono trarre conclusioni solo dai risultati di un test su un solo set di dati..