市场礼仪或雷区中的良好风度 - 页 27 1...202122232425262728293031323334...104 新评论 paralocus 2009.05.19 09:14 #261 :-) paralocus 2009.05.19 09:42 #262 如果预示着有一百个纪元就足够了? 还有一件事:当网络刚刚初始化时,它需要N个epochs的训练,而当网络已经训练好了,即在随后的每一步(下一次预测后),它也需要N个epochs,还是一个就够了? Neutron 2009.05.19 10:21 #263 问得好,paralocus。 我只能给出建议。因此,根据我的实验数据,对于隐藏层中的2个和8个神经元,NS的训练历时数分别为10到100次迭代。对于模拟输入 - 300-500。一切都应该通过实验来检验。 每次需要N个纪元。 paralocus 2009.05.19 10:43 #264 我明白了。 这里是网格代码。 код сюда не влез, поэтому в аттаче 说来惭愧,我仍然对一个简单的问题感到困惑--纪元长度计算。 这似乎很清楚--P=k*w^2/q,其中k=(2...4);w--突触的数量,q--输入的数量。显然,我的脑子里有某种术语上的混乱。什么叫输入,什么叫突触。 你能再澄清一次吗?生活中总是发生这样的事情,最简单的事情却最难理解--:) 附加的文件: nero2.mqh 7 kb paralocus 2009.05.19 13:22 #265 似乎是在工作 -:) Neutron 2009.05.19 13:38 #266 突触(w),是左边的神经元所具有的。输入(d),指的是第一(隐藏)层的每个神经元的突触数量。对于一个单一的神经元NS,突触的数量等于输入的数量。对于由两层组成的NS,在第一层(隐藏)含有两个神经元,在第二层(输出)含有一个神经元:w=2d+3 。一个神经元的输入,其常数偏移量为+1,被认为是一个常规的输入。对于这样一个d=100 的网络,突触的数量w=2*100+3=203。训练向量的最佳长度 P=k*w^2/d=2*(2d+3)*(2d+3)/d=(约)=2*2d*2=8d=8*100=800个样本。 paralocus 2009.05.19 14:20 #267 谢谢你! 将输入改为二进制--一切都顺利多了!"。现在我在测试器中用不同的输入组合来运行这个网格。多么伟大的工作...-:) [删除] 2009.05.20 06:27 #268 早安。 我想分享我的喜悦:第一个像样的结果,这并不是因为过去中子的一些建议......蓝条是新的数据,序数为点。阴线:10,000欧元兑60美元。 多头头寸。 空头头寸并不那么引人注目。 神经网络,13个输入,没有隐藏层。遗传算法训练 paralocus 2009.05.20 09:00 #269 中子,看来你对25个准备工作的说法是正确的......-:) 关于我的网络,有些东西是不学习的。在100个epochs之后,权重几乎与网络初始化时相同。 与此相关的是,另一个愚蠢的问题。 在每个历时中,学习向量是否相同? 总之,事实证明,累积修正与累积平方修正的比率很快就趋于零。因此,在第10次迭代之后,学习实际上就停止了。 Neutron 2009.05.20 10:21 #270 YDzh писал(а)>> 神经网络,13个输入,没有隐藏层。遗传算法训练 真棒,YDzh! 我的结果则要温和得多。你应该把它放在演示上,看看网格会切出什么。 1...202122232425262728293031323334...104 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
如果预示着有一百个纪元就足够了?
还有一件事:当网络刚刚初始化时,它需要N个epochs的训练,而当网络已经训练好了,即在随后的每一步(下一次预测后),它也需要N个epochs,还是一个就够了?
问得好,paralocus。
我只能给出建议。因此,根据我的实验数据,对于隐藏层中的2个和8个神经元,NS的训练历时数分别为10到100次迭代。对于模拟输入 - 300-500。一切都应该通过实验来检验。
每次需要N个纪元。
我明白了。
这里是网格代码。
код сюда не влез, поэтому в аттаче
说来惭愧,我仍然对一个简单的问题感到困惑--纪元长度计算。
这似乎很清楚--P=k*w^2/q,其中k=(2...4);w--突触的数量,q--输入的数量。显然,我的脑子里有某种术语上的混乱。什么叫输入,什么叫突触。
你能再澄清一次吗?生活中总是发生这样的事情,最简单的事情却最难理解--:)
似乎是在工作 -:)
突触(w),是左边的神经元所具有的。输入(d),指的是第一(隐藏)层的每个神经元的突触数量。对于一个单一的神经元NS,突触的数量等于输入的数量。对于由两层组成的NS,在第一层(隐藏)含有两个神经元,在第二层(输出)含有一个神经元:w=2d+3 。一个神经元的输入,其常数偏移量为+1,被认为是一个常规的输入。对于这样一个d=100 的网络,突触的数量w=2*100+3=203。训练向量的最佳长度 P=k*w^2/d=2*(2d+3)*(2d+3)/d=(约)=2*2d*2=8d=8*100=800个样本。
谢谢你!
将输入改为二进制--一切都顺利多了!"。现在我在测试器中用不同的输入组合来运行这个网格。多么伟大的工作...-:)
早安。
我想分享我的喜悦:第一个像样的结果,这并不是因为过去中子的一些建议......蓝条是新的数据,序数为点。阴线:10,000欧元兑60美元。
多头头寸。
空头头寸并不那么引人注目。
神经网络,13个输入,没有隐藏层。遗传算法训练
中子,看来你对25个准备工作的说法是正确的......-:)
关于我的网络,有些东西是不学习的。在100个epochs之后,权重几乎与网络初始化时相同。
与此相关的是,另一个愚蠢的问题。
在每个历时中,学习向量是否相同?
总之,事实证明,累积修正与累积平方修正的比率很快就趋于零。因此,在第10次迭代之后,学习实际上就停止了。
神经网络,13个输入,没有隐藏层。遗传算法训练
真棒,YDzh!
我的结果则要温和得多。你应该把它放在演示上,看看网格会切出什么。