L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3152

 
Maxim Dmitrievsky #:

vous pouvez demander à chatgpt de décoder la formule si vous ne comprenez pas certains symboles.

Y|T = 1 résultats du groupe test (avec trittement)

Y|T = 0 - groupe de contrôle (sans)

Y - étiquette de classe, Y0,Y1 - étiquettes de classe sans et avec trituration

T - tritment entré dans le modèle (y compris le prédicteur) ou non entré (1;0)

E - espérance

Séparer à tout moment en divisant le test et l'entraînement.

Si vous ne faites pas de mélange, vous obtiendrez une estimation biaisée de l'ATE+biais.

L'ATE est l'effet de traitement moyen de l'exposition.

Somnolent, je mélange peut-être les lettres, mais la logique devrait être claire.

Je ne comprends toujours pas l'idée de diviser à n'importe quel point de l'échantillon. Après tout, il me semble que l'objectif est de trouver le point où l'effet du facteur a changé. Peut-être est-il nécessaire de parcourir différentes parties de l'échantillon et d'utiliser la génétique pour trouver celle qui a été nouvellement influencée par le prédicteur ?

Tout à l'heure, vous avez accusé les autres de ne pas dire la vérité, mais vous n'expliquez pas clairement la signification de ces actions, comme vous le voyez, à des fins commerciales.

Je n'ai encore rien testé à ce sujet, car il est difficile de l'automatiser dans MQL5.

 

Peut-on dire que la MO est un cas particulier d'optimisation ?

Je pense que oui.

 
Aleksey Vyazmikin #:

Je ne sais même pas de quel code on parle.

Je pensais répondre à un autre Alexei, j'écrivais depuis mon téléphone.
 
Aleksey Vyazmikin #:

Je ne comprends toujours pas l'idée de diviser à n'importe quel moment de l'échantillon. Il me semble que le but est de trouver le moment où l'influence d'un facteur a changé. Peut-être devrions-nous passer en boucle par différentes parties de l'échantillon et utiliser la génétique pour trouver celle qui a été affectée par le prédicteur d'une nouvelle manière ?

Tout à l'heure, vous avez accusé les autres de ne pas dire la vérité, mais vous n'expliquez pas clairement la signification de ces actions, selon vous, à des fins commerciales.

Je n'ai encore rien testé à ce sujet, car il est difficile de l'automatiser dans MQL5.

:)

Tu as devant toi exactement le même livre que moi. De mon point de vue, je l'ai écrit aussi. Demande à mordorator de te faire un résumé si tu l'as perdu.
 

banni, 12 heures plus tard débanni, puis à nouveau banni.

Qu'est-ce que c'était ?

 
mytarmailS #:

banni, débanni 12 heures plus tard, puis à nouveau banni.

Qu'est-ce que c'était ?

Un mois, c'est bien, laissez faire, nouveau compte.

 

Je suis tombé sur le package recipe preprocessing de R. La liste des étapes de prétraitement de ce package est impressionnante :

#> [ 1] "step_BoxCox" " step_YeoJohnson "

#> [ 3] "step_arrange" " step_bagimpute "

#> [ 5] "step_bin2factor" " step_bs "

#>  [  7] "step_center"  "  step_classdist " 

#> [ 9] "step_corr " " step_count " #> [10] "step_center" "step_classdist"

#> [11] "step_cut ""step_date" "step_count"step_date " #> [13] "step_corr" "step_count"

#> [13] "step_depth" " step_discretize " #> [15] "step_depth" "step_discretize "

#> [15] "step_dummy" "  step_dummy_extract " 

#> [17] "step_dummy_multi_choice" "step_factor2string "

#> [19] "step_filter" " step_filter_missing "

#> [21] "step_geodist" " step_harmonic "

#> [23] "step_holiday"  "  step_hyperbolic " 

#> [25] "step_ica" " step_impute_bag "

#> [27] "step_impute_knn" " step_impute_linear "

#> [29] "step_impute_lower" " step_impute_mean "

#> [31] "step_impute_median"  "  step_impute_mode "  #> [33] "step_impute_lower" "step_impute_mean"

#> [33] "step_impute_roll" " step_indicate_na "

#> [35] "step_integer" " step_interact "

#> [37] "step_intercept" " step_inverse "

#> [39] "step_invlogit"  "  step_isomap " 

#> [41] "step_knnimpute" " step_kpca "

#> [43] "step_kpca_poly" " step_kpca_rbf "

#> [45] "step_lag" " step_lincomb "

#> [47] "step_log "  "  step_logit " 

#> [49] "step_lowerimpute" " step_meanimpute " #> [51] "step_lowerimpute" "step_meanimpute"

#> [51] "step_medianimpute" " step_modeimpute " #> [53] "step_medianimpute" "step_modeimpute"

#> [53] "step_mutate" " step_mutate_at " #> [55] "step_mutate_at" "step_mutate_at"

#> [55] "step_naomit"  "  step_nnmf " 

#> [57] "step_nnmf_sparse" " step_normalize "

#> [59] "step_novel " " step_ns " #> [61] "step_ns"

#> [61] "step_num2factor" " step_nzv "

#> [63] "step_ordinalscore"  "  step_other " 

#> [65] "step_pca" " step_percentile "

#> [67] "step_pls " " step_poly " #> [69] "step_pca" "step_percentile"

#> [69] "step_poly_bernstein" " step_profile "

#> [71] "step_range"  "  step_ratio " 

#> [73] "step_regex" " step_relevel " #> [75] "step_regex" "step_relevel"

#> [75] "step_relu" " step_rename "

#> [77] "step_rename_at" " step_rm "

#> [79] "step_rollimpute"  "  step_sample " 

#> [81] "step_scale" " step_select "

#> [83] "step_shuffle" " step_slice "

#> [85] "step_spatialsign" " step_spline_b "

#> [87] "step_spline_convex"  "  step_spline_monotone " 

#> [89] "step_spline_natural" " step_spline_nonnegative"

#> [91] "step_sqrt" " step_string2factor "

#> [93] "step_time" " step_unknown "

#> [95] "step_unorder"  "  step_window " 

#> [97] "step_zv"

D'après mon expérience, l'intensité du travail de prétraitement est beaucoup plus faible (3 à 5 fois) que l'intensité du travail d'application du modèle lui-même.

 
СанСаныч Фоменко #:

Attrape le paquetage de prétraitement de recettes de R

Hedley Wickham ne fait pas de conneries

 
Maxim Dmitrievsky #:

:)

Tu as devant toi exactement le même livre que moi. De mon point de vue, je l'ai écrit aussi. Demande à mordorator de te faire un résumé si tu l'as perdu.

Je vois qu'au lieu d'une discussion et d'un échange d'expérience, nous tombons à nouveau dans des réactions émotionnelles.

Vous avez effacé le deuxième message - je voulais dire que je ne voyais aucun rapport avec le lien que vous avez donné. Dans l'article, il est étrange que l'auteur n'ait pas essayé les fonctions CB standard pour équilibrer l'échantillon. Et les conclusions ne peuvent pas être tirées uniquement à partir des résultats d'un test sur un ensemble de données.
 
Aleksey Vyazmikin #:

Je vois qu'au lieu de discuter et d'échanger des expériences, nous tombons à nouveau dans des réactions émotionnelles.

Vous avez effacé le deuxième message - je voulais dire que je ne voyais aucun lien avec le lien que vous avez donné. Dans l'article, il est étrange que l'auteur n'ait pas essayé les fonctions CB standard pour équilibrer l'échantillon. Et vous ne pouvez pas tirer de conclusions uniquement à partir des résultats d'un test sur un ensemble de données.
Élevez votre niveau, au moins pour écrire du code et une compréhension de base des algorithmes, ce qui est écrit dans les livres. Il y aura alors matière à discussion. Sinon, l'intelligence (une tentative d'imiter le style scientifique formel), avec des erreurs grammaticales et autres, ne provoque qu'un sourire :).

Je n'ai jamais ajusté de modèles à l'aide de poids auparavant, cela semble intéressant. En se basant uniquement sur ce livre, il n'a pas encore été possible d'écrire un TS rentable. Je veux parler des méta-apprentissages qui y sont décrits. L'ajustement par les poids y est également envisagé. Mais lorsque j'ai ajouté certains éléments à mon travail, celui-ci s'est amélioré à certains endroits. Par exemple, l'entraînement croisé, qui est décrit dans un autre article. J'ai déjà fait le tour de la question et je suis passé à autre chose pour ainsi dire, je n'ai pas envie de tirer les wagons derrière moi. Vous et Sanych avez passé trop de temps à discuter pour savoir si c'est nécessaire en trading ou pas, sans rien apprendre :)
.

Effacé, car j'ai quitté ce forum débile. Pas besoin.

Bonne chance, tu en auras besoin.