交易中的机器学习:理论、模型、实践和算法交易 - 页 3210

 
mytarmailS #:

活跃市场研究人员的整个分支都坐在 R 上,这是一种总结......

首先,研究团队必须壮大。
 

上面提到的问题是,有一个模型在训练文件和 OOS 文件上都取得了很好的结果。据我所知,训练文件甚至可以通过逐个样本随机抽样获得,而 OOS 是训练文件的残留物。

但在外部文件上运行该模型时,结果却非常糟糕。

我记得,几年前也出现过这样的变种。

我设法找到了原因。原因是瞻前顾后,这是一个非常不方便的原因,因为很难理解什么是瞻前顾后。

然后,我创建了一个模型,在这个模型中,教师是 ZZ 的增量,而在计算 ZZ 的过程中有很多预测因素。例如,价格和 ZZ 之间的差异。在训练时,我只需剪掉文件中不包含 ZZ 正确链接的部分。而在计算预测因子时,缺失的 ZZ 值会通过最后一个链接进行扩展。

它随机抽样的三个文件(这是在 Rattle 中)的分类误差约为 5%。然而,与前三个文件无关的第四个文件却产生了随机误差。

然而,如果我们移除 ZZ 参与计算的所有预测因子,一切都会水到渠成:所有四个文件的分类误差大致相同。

这就是前瞻性。

通过重新训练,我们可以清楚地看到:在测试器中使用优化时要格外小心,在 R 中要清除预测因子列表中的垃圾。但如何检测 前瞻性呢?

根据以往的经验,以下方法显而易见:如果训练、测试和验证的分类误差小于 10%,那么就应该逐个丢弃预测因子,直到误差增加到 20% 30% ....

 
之字形设计应着眼于酒吧的当下,而不是未来。
 
Forester #:
ZigZags 应绘制在柱状图的当下,而不是未来。

在模型训练中没有扩展 ZZ,因为没有必要:模型寻找的模式是一条线--邻近的线不考虑在内,而且训练的样本是 1500 条柱状图。

 
这 "之 "字形的废话到底从何而来,是谁先想出来的?

桑尼奇,你什么时候才能记住老师是一个目标 + fichi?

volatility(波动性)的拼写不带 "H"。
 
СанСаныч Фоменко #:

根据以往的经验,以下方法适用:如果训练、测试和验证的分类误差小于 10%,那么就愚蠢地逐个丢弃预测因子,直到误差增加到 20% 30% ....

天才)))))

如何找到误差小于 10% 的真正预测因子?

别告诉我它们不存在,这是信仰问题....。

 
Maxim Dmitrievsky #:
这种 "之 "字形的废话从何而来,是谁先发明的?

你自己是否有兴趣或根本没有兴趣写出问题的实质,而不是炫耀你最喜欢的自己?

 
СанСаныч Фоменко #:

我设法找到了原因。原因就是瞻前顾后,这是一个极其不方便的原因,因为要理解什么是瞻前顾后极其困难。

然后,我使用了一个模型,在这个模型中,教师是 ZZ 的增量,在计算中涉及到 ZZ 的预测因素很多。例如,价格和 ZZ 之间的差异。在训练时,我只需将不包含 ZZ 正确链接的文件切掉一部分。在计算预测因子时,ZZ 的缺失值由最后一个链接扩展。

为了避免偷看,Forester 说得很对,你应该在每次迭代的循环中计算预测值,而不要偷看....。

这就是解决方案。

 
mytarmailS #:

Genius)))))

如何找到误差小于 10%的真正预测因子?

别告诉我没有,这是信仰问题.....

这很简单。

我在上面以 ZZ 为例介绍了我是如何做到的。

但这与ZZ无关:我们把老师的吟唱放入预测器中,在跑到外面的文件上之前就能获得快乐。

你不可能像马克西姆那样,在 "跑到外面去 "的同时还能快乐地生活,因为马克西姆的照片非常漂亮。

但回到展望未来的问题。建议钝化过冲。或者还有其他办法?

 
СанСаныч Фоменко #:

你自己对写问题的是非曲直而不是炫耀你最喜欢的自己感兴趣还是一点都不感兴趣?

解决别人的心理问题一点都不有趣