交易中的机器学习:理论、模型、实践和算法交易 - 页 1609

 
马克西姆-德米特里耶夫斯基

这就是所谓的模型堆叠。它不会是一样的,但不一定更有效率。这样做了,没有看到任何改善。

还有另一种方法,它被称为元学习(meta-learning)。你训练第一个模型来预测类别,然后你得到结果并把它们输入第二个模型,在相同的或其他的预测器上,它允许/拒绝 第一个模型的交易。1-交易,0-不交易,取决于第一个模型预测的质量,也就是一种过滤器。它能有力地减少训练数据上的错误,但在新的数据上就不那么容易了(如果模型的泛化能力低的话)。但元训练本身是可以的。

你可以在一些数据上训练第一个模型,在其他数据上训练元模型,在第一个模型的错误上训练元模型。可能有不同的变体。我两种方法都做了,总的来说有改进,但更多的是调整,而不是得到一个好的模型,在反馈中发挥作用。

你可以谷歌一下马科斯-洛佩斯-德-普拉多的 "元学习",就是关于交易的

谢谢你的信息,但我考虑过将预测器分成几部分,作为训练时节省计算机资源的一种方式,我只是没有足够的时间来一次训练例如10个预测器的模型...

我不想用PCA或其他方法使预测因子变小,因为我需要先选择重要的预测因子,所以我在考虑如何将一般的模型分解成PDP模型,并将信息损失降到最低。

 
mytarmailS:

谢谢你的信息,但我正在考虑将预测器分成几部分,作为训练时节省计算机资源的一种方式,我只是无法承受在一个模型中一次性训练例如10个预测器......

我不想用PCA或其他方法来减少预测因子的大小,因为我需要首先选择有意义的预测因子,所以我在考虑如何在信息损失最小的情况下将一般模型分成PDP模型。

哪10个预测因素?移除相关的,通过森林或提升看到剩余的重要性,会有3-10个。

 

反正你不可能百分之百地猜到,它已经被测试过了,无论如何都会有不正确的预测。这是因为训练模型可以重复,但结果不一定相同。

例如,它看起来是这样的。当然,我可能没有一个很好的方法来选择模型(形式化的数据),但我很难相信100%正确的预测是可能的。


 
马克西姆-德米特里耶夫斯基

哪10个预测因素?去掉相关的,通过森林或提升,看看剩下的那些的重要性,你就剩下3-10个了。

如果预测因素是逻辑规则呢?:)

 
我同意关于深层历史的培训不是很有效,有时系统开始在路上胡闹。
 
mytarmailS:

如果预测因素是逻辑规则呢?:)

谁在乎呢,没有那么多的预测因素,这不是一个模型,是垃圾。

也许是在搜索引擎或图像分析的某个地方,但对报价来说肯定不是。

 
法尔哈特-古扎罗夫

你以什么样的形式向神经网络的层次提供信息?

 
马克西姆-德米特里耶夫斯基

谁在乎呢,根本没有那么多的预测因素,这不是一个模型,是垃圾

为什么?

模式越 "丰富 "就越糟糕?

特别是如果你自己都不知道哪种预测因子的组合是最好的,把所有可能的选项都输入模型,然后看一下预测因子在模型中的重要性,这不是很正确吗?
 
mytarmailS:

你以什么样的形式向神经网络的层次提供信息?

不不不,我试着用了一个两级的,但我没有得到预期的结果,正如我上面写的,也许不是最佳的数据选择(在某些情况下是矛盾的),不允许看到任何提示的逻辑上正确的结果。到目前为止,只有通常的分层神经元。在你建立一个多层网络之前,你需要知道每一层是否会孤立地产生正确的解决方案。

 
Farkhat Guzairov:

不不不,我试着用双水平,但我没有得到预期的结果,正如我上面写的,也许不是最佳的数据选择(在某些情况下是矛盾的),不允许看到任何提示的逻辑上正确的结果。到目前为止,只有通常的分层神经元。在你建立多层网络之前,你应该了解每一层是否能给你带来正确的解决方案。

对不起,我的意思是支持 和阻力水平