交易中的机器学习:理论、模型、实践和算法交易 - 页 3023

 
Maxim Dmitrievsky #:

这很容易实现自动化,无需人工干预即可运行

上一篇文章中也展示了类似的算法。

从本质上讲,它是对模型错误的过滤,并将其归入一个单独的 "不交易 "类别,通过第二个模型更好地学习如何将谷物和谷壳区分开来。

而在第一个模型中只保留谷物

这与树形规则是一样的,只不过是从侧面。但规则之间应该相互掠夺和比较,而且在输出端已经有了一个精炼的 TS。

我在上文证明了不能丢弃模型错误。

我想改变我的观点。

但为此目的,这是必要的。

在训练选择和训练选择之外对初始模型进行评估

评估训练选择之外的 "净化 "模型,该模型与前两个模型不匹配

可以吗?

 
СанСаныч Фоменко #:

上文已经证明,不能抹杀模型的误差。

我想改变我的观点。

但要做到这一点

对训练选择和非训练选择初始模型的评估

在训练选择之外估计一个与前两个模型不匹配的 "净化 "模型

我们能做到吗?

我在上面添加了几个屏幕

用这种方法分离谷物和谷壳的算法可能不同,我将向你展示我是如何做的。

虚线左边的是 OOS,它不以任何方式参与训练

学习增量等简单符号

黄色曲线是报价图表本身,不要看它。但您可以利用它来了解模型在哪些情况下效果更好/更差
 

如果一下子丢掉很多错误,教师就会退化(可能会有很多错误,而剩下的谷粒为零),因此要在每次迭代时逐步丢掉错误

而 OOS 的误差会逐渐减小,在这种情况下,r^2 会增大

Iteration: 0, R^2: 0.10170503363002426
Iteration: 1, R^2: 0.3786110827222656
Iteration: 2, R^2: 0.36326063198923375
Iteration: 3, R^2: 0.4316690005974817
Iteration: 4, R^2: 0.71390099630815
Iteration: 5, R^2: 0.8178962191209952
从本质上讲,这类似于 fxsaber 中的 bestinterval,只是这里的 TS 是一次性准备好的
 
Aleksey Vyazmikin #:

我觉得都列出来了。这是Kaggle和framevoc fast.ai创始人杰里米-霍华德(Jeremy Howard)的著作。

Fast.ai。

原版书

俄文版

免费版本

 
Maxim Dmitrievsky #:

如果一下子丢掉很多错误,教师就会退化(可能会有很多错误,而剩下的谷粒为零),因此要在每次迭代时逐步丢掉错误

这样,OOS 误差就会逐渐减小,在这种情况下,r^2 就会增大。

从本质上讲,它类似于 fxsaber 中的 bestinterval,只不过这里的 TS 是一次性准备好的。

在我看来,这句话过于贴切。

什么是 "超出样本"?

 
也许你把树弄成这样,然后再把规则拿出来,效果会更好。
 
СанСаныч Фоменко #:

在我看来,这句话超级贴切。

出样 "在哪里?

这已经不好笑了。

 
Aleksey Vyazmikin #:

我建议在 kolab 中用 python 树来制作这顶帽子,树叶可以选择,您可以把数据集放在那里。

如果你有任何更好/更坏的想法,只取最好的规则或通过一些过滤器,请提出建议。

我想通过两种方法对一个数据集进行比较。然后我们就会明白什么是好的了:)

 
Maxim Dmitrievsky #:

这很容易实现自动化,无需人工干预即可运行

上一篇文章中也展示了类似的算法。

从本质上讲,它是对模型错误的过滤,并将其归入一个单独的 "不交易 "类别,通过第二个模型更好地学习如何将谷物和谷壳区分开来。

而在第一个模型中只保留谷物

这与树形规则是一样的,只不过是从侧面。但规则之间应该相互掠夺和比较,而且在输出端已经有了一个精炼的 TS。

例如,从糠中选择谷粒的第一次迭代(垂直虚线左侧--OOS):

这里是第 10 次迭代:


是的,重点是一样的--最终使用能更好地描述预测因子的数据。

如何最有效地做到这一点仍是一个未决问题--每种方法都各有利弊。

 
Rorschach #:

我觉得都列出来了。这是 Kaggle 和 framevoc fast.ai 创始人杰里米-霍华德(Jeremy Howard)的著作。

Fast.ai。

这本书的原文是

俄语书籍

免费版本

谢谢!我得找一本免费的俄语版--翻译员有时会给我做珍珠,并告诉我盐水的知识,这可能很有用:)