在交易中使用神经网络 - 页 14

 
TheXpert:
啊,这很容易。只要它开始学习,这就足够了。


现在我将演示新的网络。有了所有的测试。
 
TheXpert:
啊,这很简单。只要它开始学习,这就足够了。

Reshetov的Perseptron也学到了一些东西,但它显然不够....。

我认为,为了谈论充分性,必须以某种方式学会分析训练的结果,在OV上,取决于训练的时期(输入例子的数量),单单OOS在这里不是一个帮助。我在这个地方跌跌撞撞地走了很久,我觉得真理就在附近,但我无法把握它。

 
Figar0:

我在这个地方跌跌撞撞地走了很久,感觉真理就在附近的某个地方,但我却抓不住把柄。

嗯,不知道,这是最基本的事情。
 
Figar0:

Reshetov的Perseptron也学到了一些东西,但它显然不够....。

我认为,为了谈论充分性,必须以某种方式学会分析训练的结果,在OV上,取决于训练的时期(输入例子的数量),单单OOS在这里不是一个帮助。我在这个地方跌跌撞撞地走了很久,我觉得真理就在附近,但我无法掌握它。


我似乎已经掌握了它。在大样本上进行优化。我得到的缩减是低于净利润的。然后我减少样本并添加最后一个精炼神经元。我可能是错的。我发一个例子。
 

我在研究中使用了几种方法。

1)给网络一个左边的输入,好比太阳天气的每日变化,教它在这个输入上进行交易,例如一个月。在这里,纯形式的网应该表现出它的记忆/跟随能力。然后给予正常的输入。我试图以某种方式分析训练结果之间的差异。

2) 试图分析训练的结果与增加训练样本的大小有关。几乎所有的网络和配置,到某一时刻都有一个增加的结果,然后通常会出现停滞,进一步增加输入样本的数量可能会导致更糟糕的结果。

通过我的这些研究结果,我试图对网络的充分性和训练期做出结论,以及它们之间是否有任何联系。 这就是我进入这个话题的原因。也许有人会提出一些建议。

 
有一个累积的均方根误差。它可以针对不同的网络进行比较。并用它来确定它是否学到了什么。
 
TheXpert:
有一个累积的均方根误差。它可以针对不同的网络进行比较。并用它来确定它是否学到了什么。

什么的错误?
 
grell:
犯了什么错误?
当然是出口。
 
TheXpert:
当然是出口。


而如果不预测产出,那么如何预测?
 
grell:

我有点摸不着头脑了。在大样本上进行优化。我得到的缩减量要比净利润低。然后我减少样本并添加最后一个精炼神经元。我可能是错的。我将发布一个例子。
这很好,例如我很想看看专家顾问在培训期间到底是如何工作的,你认为这很成功。