交易中的机器学习:理论、模型、实践和算法交易 - 页 3152

 
Maxim Dmitrievsky #:

如果您不懂任何符号,可以向 chatgpt 寻求公式解码。

Y|T = 1 测试组结果(带三元组)

Y|T = 0 - 对照组(无)

Y--类别标签,Y0,Y1--没有三元组和有三元组的类别标签

T - 进入模型(包括预测因子)或未进入模型(1;0)

E - 期望值

在测试和训练中的任何一点进行分割

如果不进行混合,就会得到有偏差的 ATE+ 估计值

ATE 是暴露的平均治疗效果

困了,我可能把字母搞混了,但逻辑应该很清楚。

我还是不明白在样本中的任何一点进行分割的想法。毕竟,在我看来,问题的关键在于找到因素效果发生变化的那一点。也许有必要在样本的不同部分进行循环,利用遗传学找到新近受预测因子影响的部分?

刚才你指责别人不说实话,但你自己却没有说清楚这些行为的意义,在你看来,这些行为是为了交易目的。

我还没有就这个问题进行过任何测试,因为在 MQL5 中很难实现自动化。

 

各位,我们能说 MO 是优化的一种特例吗?

我认为可以。

 
Aleksey Vyazmikin #:

我都不知道我们在说什么代码。

我以为我在回复另一个阿列克谢,我是用手机写的。
 
Aleksey Vyazmikin #:

我还是不明白在样本中的任何一点进行分割的想法。在我看来,问题的关键在于找到某个因素的影响发生变化的时刻。也许我们应该在样本的不同部分进行循环,并利用遗传学找到受预测因子影响的新部分?

刚才你指责别人不说实话,但你自己却没有说清楚这些行为的意义,在你看来,这些行为是为了交易目的。

我还没有就此问题进行过任何测试,因为在 MQL5 中很难实现自动化。

:)

你面前的这本书和我的一模一样。在我看来,你也写了。如果你弄丢了,可以让魔导师帮你做个摘要。
 

被禁言,12 小时后解禁,然后又被禁言。

这是怎么回事?

 
mytarmailS #:

被禁言,12 小时后被解禁,然后又被禁言。

这是怎么回事?

一个月就好了,让它继续吧,新账号。

 

我发现了R 中的配方 预处理软件包。这个软件包的预处理步骤列表令人印象深刻:

#> [ 1] "step_BoxCox" " step_YeoJohnson "

#> [ 3] "step_arrange" " step_bagimpute "

#> [ 5] "step_bin2factor" " step_bs "

#>  [  7] "step_center"  "  step_classdist " 

#> [ 9] "step_corr " " step_count "

#> [11] "step_cut ""步骤日期

#> [13] "step_depth" " step_discretize "

#> [15] "step_dummy" "  step_dummy_extract " 

#> [17] "step_dummy_multi_choice" "step_factor2string "

#> [19] "step_filter" " step_filter_missing "

#> [21] "step_geodist" " step_harmonic "

#> [23] "step_holiday"  "  step_hyperbolic " 

#> [25] "step_ica" " step_impute_bag "

#> [27] "step_impute_knn" " step_impute_linear "

#> [29] "step_impute_lower" " step_impute_mean "

#> [31] "step_impute_median"  "  step_impute_mode " 

#> [33] "step_impute_roll" " step_indicate_na "

#> [35] "step_integer" " step_interact "

#> [37] "step_intercept" " step_inverse "

#> [39] "step_invlogit"  "  step_isomap " 

#> [41] "step_knnimpute" " step_kpca "

#> [43] "step_kpca_poly" " step_kpca_rbf "

#> [45] "step_lag" " step_lincomb "

#> [47] "step_log " "  step_logit " 

#> [49] "step_lowerimpute" " step_meanimpute "

#> [51] "step_medianimpute" " step_modeimpute "

#> [53] "step_mutate" " step_mutate_at "

#> [55] "step_naomit"  "  step_nnmf " 

#> [57] "step_nnmf_sparse" " step_normalize "

#> [59] "step_novel " " step_ns "

#> [61] "step_num2factor" " step_nzv "

#> [63] "step_ordinalscore"  "  step_other " 

#> [65] "step_pca" " step_percentile "

#> [67] "step_pls " " step_poly "

#> [69] "step_poly_bernstein" " step_profile "

#> [71] "step_range"  "  step_ratio " 

#> [73] "step_regex" " step_relevel "

#> [75] "step_relu" " step_rename "

#> [77] "step_rename_at" " step_rm "

#> [79] "step_rollimpute"  "  step_sample " 

#> [81] "step_scale" " step_select "

#> [83] "step_shuffle" " step_slice "

#> [85] "step_spatialsign" " step_spline_b "

#> [87] "step_spline_convex"  "  step_spline_monotone " 

#> [89] "step_spline_natural" " step_spline_nonnegative"

#> [91] "step_sqrt" " step_string2factor "

#> [93] "step_time" " step_unknown "

#> [95] "step_unorder"  "  step_window " 

#> [97] "step_zv"

根据我的经验,预处理的劳动强度比应用模型本身的劳动强度低很多倍(3 到 5 倍)。

 
СанСаныч Фоменко #:

从 R 中 获取配方 预处理软件包

赫德利-威克姆不说废话

 
Maxim Dmitrievsky #:

:)

你面前的这本书和我的一模一样。在我看来,你也写了。如果你弄丢了,可以让魔导师帮你做个摘要。

我明白了,我们不是在讨论和交流经验,而是再次陷入了一些情绪化的反应。

你删掉了第二个帖子--我想说的是,我看不出与你提供的链接有任何联系。奇怪的是,在文章中,作者并没有尝试用标准的 CB 函数来平衡样本。而且,不能仅从一个数据集的测试结果中得出结论。
 
Aleksey Vyazmikin #:

我明白了,我们不是在讨论和交流经验,而是再次陷入了一些情绪化的反应。

你删掉了第二个帖子--我想说的是,我看不出与你提供的链接有任何联系。奇怪的是,在文章中,作者并没有尝试用标准的 CB 函数来平衡样本。你不能只从一个数据集的测试结果中得出结论。
提高你的水平,至少要会写代码,并对算法有基本的了解,这些在书上都有介绍。这样才有谈资。不然的话,聪明的文章(试图模仿正式的科学文体),加上语法和其他错误,只能博人一笑:)。

以前从未通过权重调整过模型,似乎很有趣。纯粹根据这本书来写一个有利可图的 TS 还不可能。我指的是书中描述的元学习器。书中也提到了通过权重进行调整。但当我在工作中加入一些元素后,有些地方就变得更好了。例如,交叉训练,这在另一篇文章中有描述。我已经经历了这一切,可以说已经向前看了,我不想再在后面拉车了。您和 Sanych 花了太多时间讨论这在交易中是否必要,却没有学到任何东西 :)

已删除,因为我离开了这个弱智论坛。没有必要。

祝你好运,你会需要它的。