トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3152

 
Maxim Dmitrievsky #:

記号がわからない場合は、chatgptに数式解読を依頼することができる。

Y|T = 1 テストグループの結果(トリットメントあり)

Y|T = 0 - 対照群(トリットメントなし)

Y - クラス・ラベル, Y0,Y1 - トリットメントなしとありのクラス・ラベル

T - モデル(予測変数を含む)に入力されたトリメント,または入力されなかったトリメント (1;0)

E - 期待値.

テストと訓練で分割するように、任意の時点で分割する

ミキシングを行わないと、ATE+バイアスの偏った推定値が得られる

ATEは暴露の平均治療効果である

眠い、文字が混ざっているかもしれないが、ロジックは明確なはずだ。

サンプルのどの時点でも分割するという考え方はまだ理解できない。結局のところ、ポイントは要因の効果が変化したポイントだけを見つけることにあるように私には思える。多分、サンプルの異なる部分を循環させ、予測因子の影響を新たに受けたものを見つけるために遺伝学を使う必要があるのでは?

先程、あなたは他の人が真実を語っていないと非難しましたが、あなた自身は、トレーディングの目的から見て、これらの行動の意味を明確にしていません。

MQL5で自動化するのは難しいので、この問題についてはまだ何もテストしていません。

 

みんな、MOは最適化の特殊なケースだと言えるかな?

私はそう思う。

 
Aleksey Vyazmikin #:

何のコードの話をしているのかさえわからない。

私は別のアレクセイに返信しているつもりだった。
 
Aleksey Vyazmikin #:

サンプルのどの時点でも分割するという考え方がまだ理解できない。ポイントは、ある要因の影響が変化した瞬間を見つけることだと思う。サンプルのさまざまな部分をループして、遺伝学を使って予測因子の影響を新たに受けたものを見つけるべきなんじゃないか?

先程、あなたは他人が真実を語っていないと非難しましたが、あなた自身は、トレーディングを目的としたこれらの行動の意味を明確にしていませんね。

MQL5で自動化するのは難しいので、私はまだこの問題について何もテストしていません。

:)

あなたは私とまったく同じ本を目の前にしている。僕の見方では、君も書いたんだ。もし紛失したのなら、モルドレータに要約を作ってもらうように頼んでくれ。
 

生まれ変わってったな。

あれは何だったんだ?

 
mytarmailS #:

追放され、12時間後に追放が解かれ、そしてまた追放された。

あれは何だったんだ?

1カ月もあれば大丈夫だ。

 

Rのrecipe preprocessingパッケージに出会った。このパッケージからの前処理ステップの印象的なリスト:

step_BoxCox" " step_YeoJohnson " #> [ 1] "step_BoxCox" " step_YeoJohnson"

#> 3] " step_arrange" " step_bagimpute "

ステップ_bin2factor" " step_bs " #> [ 5] "step_bin2factor" "step_bs"

ステップ2] "step_bin2factor" "step_bs" #>  [  7] "step_center"  "  step_classdist " 

#> [ 9] "step_corr " " step_count "

#> [11] "step_cut " " step_date "

ステップ数" #> [13] "step_depth" " step_discretize "

ステップダミー" "  step_dummy_extract " #> [15] "step_dummy" "step_dummy_extract"

ステップ_dummy" "step_dummy_extract" #> [17] "step_dummy_multi_choice" "step_factor2string "

ステップ_filter" " step_filter_missing " #> [19] "step_filter" " step_filter_missing "

ステップ_filter" "step_filter_missing" #> [21] "step_geodist" " step_harmonic "

ステップ_holiday" "step_hyperbolic " #> [23] "step_holiday"  "  step_hyperbolic"

#> [25] "step_ica" " step_impute_bag "

ステップ_impute_bag" #> [27] "step_impute_knn" " step_impute_linear "

ステップ: "step_impute_lower" "step_impute_mean " #> [29] "step_impute_lower" " step_impute_mean"

ステップ_impute_lower" "step_impute_lower" "step_impute_mean" #> [31] "step_impute_median"  "  step_impute_mode " 

ステップ_indicate_na " #> [33] "step_impute_roll" " step_indicate_na"

#> [35] "step_integer" " step_interact "

ステップ_integer" "step_interact" #> [37] "step_intercept" " step_inverse "

ステップ_integer" "step_interact" #> [37] "step_intercept" "step_inverse" #> [39] "step_invlogit"  "  step_isomap " 

ステップ_isomap" #> [41] "step_knnimpute" " step_kpca "

ステップ_kpca_poly" " step_kpca_rbf " #> [43] "step_kpca_poly" " step_kpca_rbf"

ステップ_kpca_poly" "step_kpca_rbf" #> [45] "step_lag" " step_lincomb "

#> ステップ_ログ " "  step_logit " 

ステップ_lag" "ステップ_lincomb" #> [49] "step_lowerimpute" " step_meanimpute "

ステップ_モードインプット #> [51] "step_medianimpute" " step_modeimpute "

#> [53] "step_mutate" " step_mutate_at "

#> [55] "step_naomit"  "  step_nnmf " 

#> [57] "step_nnmf_sparse" " step_normalize "

#> [59] "step_novel " " step_ns "

#> [61] "step_num2factor" " step_nzv "

#> [63] "step_ordinalscore"  "  step_other " 

ステップ・パーセンタイル(step_percentil e ) #> [65] "step_pca" " step_percentile"

ステップ_パーセンタイル(step_percentile) #> [67] "step_pls " " step_poly "

生年月日 #> [69] "step_poly_bernstein" " step_profile "

ステップ幅"  "  ステップ比 " #> [71] "step_range" "step_ratio"

#> [73] "step_regex" " step_relevel "

ステップ番号の変更" #> [75] "step_relu" " step_rename "

ステップ_リネーム" #> [77] "step_rename_at" " step_rm "

ステップ_rollimpute"  "  step_sample " #> [79] "step_rollimpute" "step_sample"

#> [81] "step_scale" " step_select "

ステップの終了" #> [83] "step_shuffle" "step_slice " #> [83] "step_shuffle" " step_slice"

#> [85] "step_spatialsign" " step_spline_b "

#> [87] "step_spline_convex"  "  step_spline_monotone " 

#> [89] "step_spline_natural" " step_spline_nonnegative"

#> [91] "step_sqrt" " step_string2factor "

#> [93] "step_time" " step_unknown "

ステップ_unorder"  "  step_window " #> [95] "step_unorder" "step_window"

#> [97] "step_zv"

私の経験では、前処理の労力は、モデルそのものを適用する労力よりも何倍も低い(3~5倍)。

 
СанСаныч Фоменко #:

Rからrecipe 前処理パッケージをキャッチした

ヘドリー・ウィッカムはでたらめを言わない

 
Maxim Dmitrievsky #:

:)

あなたは私とまったく同じ本を目の前にしている。僕の見方では、君も書いたんだ。もし失くしたのなら、モルドレータに要約を作ってもらうように頼んでくれ。

なるほど、議論や経験の交換の代わりに、私たちは再び感情的な反応に陥ってしまったようだ。

2つ目の投稿が消されていますね。私は、あなたが挙げたリンクとの関連性が見えないと言いたかったのです。記事の中で、著者がサンプルのバランスを取るために標準的なCB関数を試していないのは奇妙だ。そして、1つのデータセットでのテスト結果だけから結論を導き出すことはできない。
 
Aleksey Vyazmikin #:

なるほど、議論や経験の交換の代わりに、またしても感情的な反応に陥ってしまったようだ。

2つ目の投稿が消されていますね。私は、あなたが挙げたリンクとの関連性が見えなかったと言いたかったのです。記事の中で、著者がサンプルのバランスを取るために標準的なCB関数を試していないのは奇妙だ。そして、1つのデータセットでのテスト結果だけから結論を導き出すことはできない。
もっとレベルを上げて、少なくともコードを書けるようになり、本で書かれているアルゴリズムの基本的な理解を深めてください。、、フレンドリーなー。そうでなければ、文法やその他のミスを含んだ巧みさ(正式な科学的スタイルを模倣しようとする試み)は、笑いを引き起こすだけだ :)。

Never tuned models through weights before, seemed interesting.ーこのー、ーこのーこのーこのーーーーーーーーーーのーーーーーーーのーーーーのーーーのーーーーのーーーーーーーのーーーーーーーーのーーーーーーーーーーーーーーーーーーーーーーーーーータ・ラーナーズという、ータ・ラーナーズとはータ・ラーナーズというータ・ラーナーズ。ー重みによるーによるーによるーによるー、フレンドリーなフレンドリーなフレンドリーフレンドリーフレンドリーフレンドリーフレンドリーフレンドリーフレンドリーフレンドリー。、、ータはータはータがータ。私はすでにすべてを経験し、いわば先に進んでいる。あなたとSanychは、トレーディングに必要かどうか議論するのに長い時間を費やしすぎました。何も学ばずに :)
.

ー削除された。必要ない。

ー幸運をー。

理由: