市场礼仪或雷区中的良好风度 - 页 27

 
:-)
 

如果预示着有一百个纪元就足够了?

还有一件事:当网络刚刚初始化时,它需要N个epochs的训练,而当网络已经训练好了,即在随后的每一步(下一次预测后),它也需要N个epochs,还是一个就够了?

 

问得好,paralocus

我只能给出建议。因此,根据我的实验数据,对于隐藏层中的2个和8个神经元,NS的训练历时数分别为10到100次迭代。对于模拟输入 - 300-500。一切都应该通过实验来检验。

每次需要N个纪元。

 

我明白了。

这里是网格代码。

код сюда не влез, поэтому в аттаче

说来惭愧,我仍然对一个简单的问题感到困惑--纪元长度计算。

这似乎很清楚--P=k*w^2/q,其中k=(2...4);w--突触的数量,q--输入的数量。显然,我的脑子里有某种术语上的混乱。什么叫输入,什么叫突触。

你能再澄清一次吗?生活中总是发生这样的事情,最简单的事情却最难理解--:)

附加的文件:
nero2.mqh  7 kb
 

似乎是在工作 -:)


 

突触(w),是左边的神经元所具有的。输入(d),指的是第一(隐藏)层的每个神经元的突触数量。对于一个单一的神经元NS,突触的数量等于输入的数量。对于由两层组成的NS,在第一层(隐藏)含有两个神经元,在第二层(输出)含有一个神经元:w=2d+3 。一个神经元的输入,其常数偏移量为+1,被认为是一个常规的输入。对于这样一个d=100 的网络,突触的数量w=2*100+3=203。训练向量的最佳长度 P=k*w^2/d=2*(2d+3)*(2d+3)/d=(约)=2*2d*2=8d=8*100=800个样本。

 

谢谢你!

将输入改为二进制--一切都顺利多了!"。现在我在测试器中用不同的输入组合来运行这个网格。多么伟大的工作...-:)

 

早安。

我想分享我的喜悦:第一个像样的结果,这并不是因为过去中子的一些建议......蓝条是新的数据,序数为点。阴线:10,000欧元兑60美元。

多头头寸。

空头头寸并不那么引人注目。

神经网络,13个输入,没有隐藏层。遗传算法训练

 

中子,看来你对25个准备工作的说法是正确的......-:)

关于我的网络,有些东西是不学习的。在100个epochs之后,权重几乎与网络初始化时相同。

与此相关的是,另一个愚蠢的问题。

在每个历时中,学习向量是否相同?

总之,事实证明,累积修正与累积平方修正的比率很快就趋于零。因此,在第10次迭代之后,学习实际上就停止了。

 
YDzh писал(а)>>

神经网络,13个输入,没有隐藏层。遗传算法训练

真棒,YDzh!

我的结果则要温和得多。你应该把它放在演示上,看看网格会切出什么。