再培训

 
谁使用什么技术来尽量减少模型/顾问的再培训?
 
它们(这些方法)能否,存在?这取决于策略,取决于EA本身。要么它只在测试器中自我调整并耗尽,要么它自我优化并发挥作用。
 
Aliaksandr Hryshyn:
谁使用什么技术来尽量减少模型/顾问的再培训?
如果你了解它是如何工作的,你就会优化主要的1-3个参数。然后你优化次要的。
 
Dmitry Fedoseev:
它们(这些方法)能否存在?这取决于策略,取决于EA本身。要么它只在测试器中自我调整而失败,要么它自我优化而成功。
是的,可以有。例如,对模型的复杂性设置限制。当然,MT4/5策略测试器 可能缺乏功能。或者可以尝试比较训练集和测试集的结果分布。也许有人已经在这个方向上进行了研究。
 
一个类似的主题,只是没有胡说八道的内容
 
СанСаныч Фоменко:
一个类似的主题,但没有胡说八道的内容。
这正是只有一个巴拉巴拉的地方,它在那个分支中,坚实的巴拉巴拉,至少有一件事是好的--"为静止性 "的哲学对话已经结束。桑桑尼茨,也许你是时候停止你微妙的无礼了?在这个主题里,只有两个人签到,只写了一个帖子,而你却要胡说八道地写。
 
Aliaksandr Hryshyn:
是的,可以有。例如,对模型的复杂性设置限制。当然,MT4/5策略测试器 可能缺乏功能。或者可以尝试比较训练集和测试集的结果分布。也许有人已经在这个方向上进行了研究。

谁来安装,如何安装?

训练集和文本集,这是另一个话题。

 
如果使用正向测试,"再训练 "将通过优化期之外的结果退化来体现。不幸的是,MT没有提供任何内置的方法来比较优化 和正向测试结果,也就是说,建议通过外部程序或脚本来手动(通过眼睛)进行,由自己决定。
 
Dmitry Fedoseev:

谁来安装,如何安装?

训练和文本集,这是另一个话题。

为什么会有不同呢?因为它被分解为评估过度训练,或者它是方法本身的一部分。
 
Dmitry Fedoseev:
唯一只有一个胡说八道的地方是在那个分支,所有的人都在胡说八道,至少有一点是好的--"为了静止 "的哲学对话已经结束。桑桑尼茨,也许你是时候停止你微妙的无礼了?在这个主题里,只有两个人结账,每人只有一个帖子,而你却胡说八道地写。
Blah-blah指的是内容,而不是人。如果你认为它指的是人,我表示歉意。
 
СанСаныч Фоменко:
Blah blah指的是内容,而不是人。如果你认为它指的是人,我表示歉意。
而我认为 "胡说八道 "是由他们写的东西来评判的,而不是由人评判的。