交易中的机器学习:理论、模型、实践和算法交易 - 页 3287

 
Forester #:

我使用 Valking Forward 也是出于同样的原因。
而且是的,这与列车区段的大小有很大关系。例如,在 20000 条线路上可以找到一些前向信息,但在 5000 或 100000 条线路上则是随机的。

如果找到了 "东西",那么它在训练之外的寿命通常是多少?

 
Maxim Dmitrievsky #:
😀

我甚至不知道这些方块是什么意思。可能是苹果公司的人写的:)

 
Aleksey Vyazmikin #:

如果找到了 "东西",那么它在教学之外的寿命通常有多长?

我只是每周重新训练一次模型。它的寿命可能更长,我还没研究过....。但也可能更短,而且有必要像 SanSanych 那样在每一小节上都重新训练(如果是 H1,原则上是可能的)。
就速度而言,每周一次对我来说是可以接受的--5 年时间大约可以完成 260 次重新训练。
 
Aleksey Vyazmikin #:

我们可以初步断定,训练的成功与否确实取决于样本的大小。不过,我注意到"-1p1-2 "样本的结果与"-1p2-3 "样本的结果相当,甚至在某些标准上更好,而 "0p1-2 "样本的结果在符合给定标准的模型数量上要差一倍。

现在,我运行了一个时间顺序颠倒的样本,其中 train 样本由初始考试+测试+train_p3 样本组成,测试样本为train_p2,考试样本为 train_p1 这样做的目的是想看看是否有可能在较新的数据上建立一个 10 年前就能成功的模型。

您认为结果会如何?

我没有等太久--结果就在表格的最后一列中

我会尽量不带偏见地发表评论。一方面,我们可以说,按照主要标准--合适模型的数量--来衡量,改变样本的年代会使结果大为恶化,但另一方面,找到这些模型的事实本身就说明,数据中存在一些稳定的模式。还是随机的?是的,当然,我们还需要抽取其他样本,进行类似的研究,只有这样,我们才能更有把握地得出结论。目前,这只是可供思考的信息。

客观地说,数据量很大--我通常使用数倍的较小样本进行训练,尽管与时间进程相当。在所有实验中,召回率看起来越发令人难过。我甚至对没有人关注这个问题感到惊讶。总的来说,我们可以反复强调,如果不使用固定的止损和止盈,标准指标对财务结果的指示效果很差。

如果您有任何想法/希望在这里(示例图)结合其他东西--请告诉我--我会尝试检查会发生什么。

 
Forester #:
我只是每周重新训练一次模型。它的寿命可能更长,我还没有研究过....。但也许会更短,而且有必要像 SanSanych 那样在每条杠上都重新训练(如果是 H1,那么原则上是可以的)。就速度而言,每周一次对我来说是可以接受的--260 次再训练大约需要 5 年时间。

这种再培训的结果如何?

 
Aleksey Vyazmikin #:

这种再培训的总体结果如何?

我去年展示的所有图表都是这样得到的。只有 OOS 是通过 Valking-forward 获得的。
 
Andrey Dik #:

麦克斯,我不明白你为什么要取笑我。

如果没有假设,就不要说;如果有假设,就说出来,比如 "结果会很糟糕"。

如果有趣,你可以笑,如果悲伤,你可以哭。

阿列克谢-维亚兹米金在这里讨论的事情不能引起建议,也不可能评价 "烂-不烂"。

例如,一个人走过来说:

- 我们把铁块送上月球吧。

我们惊讶地看着他。

然后那个人说:

- 我们要改变铁的温度,在里面放不同的水。

你的反应是"如果没有假设--保持沉默,如果有假设--说出来,比如 "结果会很糟糕"?

列克谢-维亚兹米金 的所作所为与国防部的问题毫无关系他从一部歌剧中抽丝剥茧,试图从另一部歌剧中得到答案--这都是一个脑子里一团糟的人的空话。

 
Forester #:
我去年展示的所有图表都是通过这种方式获得的。只有 OOS 是通过 Valking Forward 获得的。

从图片来看,Recall 值也 低,也就是说,模型对任何事情都没有信心,预测非常谨慎。

 
Forester #:
我只是每周重新训练一次模型。它的寿命可能更长,我还没有研究过....。但也许会更短,而且有必要像 SanSanych 那样在每条杠上都重新训练(如果是 H1,那么原则上是可以的)。对我来说,就速度而言,一周一次是可以接受的--5 年的 260 次再训练大约就这样过去了。

我发现了一个根本问题:瞻前顾后。它的表现形式如下:我们从一个大文件中提取片段,进行教学,然后测试、检查 - 一切正常,误差也差不多。但是,只要我们跳出这三个文件(它们是一个大文件的组成部分),结果就会截然不同,通常是灾难性的。

如果我们每一步都重新训练,"瞻前顾后 "的问题就会消除,因为预测是在与训练相同的预测值上进行的。

而如果不在每一步都进行训练,那么包括训练部分在内的所有预测器都会根据某些值进行训练,然后根据这些值进行预测。这里就有一个问题:预测器的新值是否会与学习图中的预测器值相吻合?

 
СанСаныч Фоменко #:

在这里,我发现了一个根本问题:瞻前顾后。它的表现形式如下:我们从一个大文件中提取片段,研究它们,然后测试它们,检查它们--一切正常,错误大致相同。但是,只要我们在这三个文件(它们是一个大文件的组成部分)之外运行,结果就会完全不同,通常是灾难性的。

如果我们每一步都进行重新训练,"瞻前顾后 "的问题就会消除,因为预测是在与训练相同的预测值上进行的。

而如果不在每一步都进行训练,那么包括训练部分在内的所有预测器都会根据某些值进行训练,然后根据这些值进行预测。这里就有一个问题:预测器的新值是否会与学习图中的预测器值相吻合?

你的 "窥视 "在哪里?

我读了几遍,都没看出字里行间的逻辑。

他们发明了问题--然后英勇地解决了问题--一个在展望未来,另一个在寻找完美的标记....。