交易中的机器学习:理论、模型、实践和算法交易 - 页 377

 
弗拉基米尔-佩雷文科

分成火车/测试/验证后,混合火车。其余各组不要洗牌。
这对神经网络的分类是有效的。此外,对于深度神经网络训练来说,在送入之前将每一个minibatch混合起来。

祝好运


能否给我一个关于混合的参考资料? 因为纯粹从直觉上讲,这毫无意义)以及预测者与目标的相关性(用这个我们解决了,几乎没有)。
 
弗拉基米尔-佩雷文科

分成火车/测试/验证后,混合火车。其余各组不要洗牌。
这对神经网络的分类是有效的。此外,对于深度神经网络训练来说,在给神经网络喂食之前,对每个minibatch进行洗牌。

祝好运

我在ALGLIB的集合计算功能中发现了一个将火车和有效成分相互混合的例子。很明显,这是方法之一。

我只洗了火车。

训练的平均误差(80.0%)=0.396 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(20.0%)=0.391 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.395 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
测试的平均误差(20%)面积=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6

误差在所有区段都是一样的,与混合火车和有效的时候一样。显然,效果是一样的。

 
elibrarius

我发现在ALGLIB集合计算功能中,有一个将火车和有效的火车相互混合的例子。显然,这是其中一种方法。

只有火车被洗牌了。

训练中的平均误差(80.0%)情节=0.396 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(20.0%)=0.391 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.395 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
测试的平均误差(20%)部分=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6

误差在所有区段都是一样的,与混合火车和有效的时候一样。显然,效果是一样的。


除了这些之外,文件上的错误是什么?

 
桑桑尼茨-弗门科


除了这些之外,文件上的错误是什么?

你是说在测试中?

测试 的平均误差(20%)部分=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6

我还没有做test2的情节。我只对test1进行筛选。(也许在未来)。

 
elibrarius

你是说在测试现场?

测试 的平均误差(20%)部分=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6

我还没有创建test2的情节。我只对test1进行筛选。(也许在未来)。


在所有这些样本之外
 
桑桑尼茨-弗门科

在所有这些样本之外
外面没有,所有的数据都已经用过了。
 
elibrarius
开箱后,所有的数据都已被使用。

是否有可能将源文件分成80/20?然后你所有练习的80%,然后20%没有任何混合。
 
桑桑尼茨-弗门科

你能把源文件除以80/20吗?然后,你所有练习的80%,然后20%不做任何混合。

有了混合。

训练的平均误差(51.0%)部分=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(13.0%)=0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
测试的平均误差(16.0%)部分=0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
测试点的平均误差2(20.0%)=0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6

无需搅拌

训练的平均误差(51.0%) 情节=0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(13.0%)=0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
测试现场的平均误差(16.0%)=0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
测试点2的平均误差(20.0%)=0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6

只有2个周期的再培训,对于速度...睡觉时间已到)

 
elibrarius

随着洗牌的进行。

训练的平均误差(51.0%) 情节=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(13.0%)=0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
测试的平均误差(16.0%)部分=0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
测试点的平均误差2(20.0%)=0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6

无需搅拌

训练的平均误差(51.0%) 情节=0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(13.0%)=0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
测试现场的平均误差(16.0%)=0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
测试点2的平均误差(20.0%)=0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6

只有2个周期的再培训,对于速度...睡觉时间已到)


你的模型没有学到任何东西--它都是来自于球场。它在某处捡到了一些东西,然后发现这些东西是不相关的。

从数据挖掘开始。目标,然后搜索与目标相关的预测因子,再确定所选预测因子对具体目标的预测能力,然后才是模型


其他都是数字的智力游戏。

 

https://www.youtube.com/channel/UCLk-Oih8VlqF-StidijTUnw

他在周末有事情要做 :) 为Nubas准备的ar

而这里有一个人在做一些算法交易。


Основы анализа данных
Основы анализа данных
  • www.youtube.com
Канал содержит курсы по анализу данных. Все курсы бесплатны и легки в освоении Прохожу обучение в бесплатной школе Дениса Коновалова http://superpartnerka.bi...