市场礼仪或雷区中的良好风度 - 页 43 1...363738394041424344454647484950...104 新评论 [删除] 2009.06.04 07:11 #421 Neutron >> : 细心的人是更好的人!收紧程序并不复杂,NS训练也不会受到影响--这是一种有效的方法。 至于说没有达到最佳值,这对我们的BP来说纯粹是虚张声势。如果你预测的是正弦波,我可以理解!- 那么是的--有最佳值。但是,在市场动荡的情况下,那些是什么呢?现在,最佳状态就在那里,在下一步(你所预测的),它就在那里......。而你正在全力以赴地寻找 "这里"。简而言之,不存在精确的定位问题,通过每一步的过度训练就能圆满解决。 反过来说也是如此,如果没有找到全局最小值,或者至少没有找到它的附近,那么每一步的训练都可能不尽人意。我研究了一下这个问题,我个人得到了类似于自欺欺人的东西,当误差在两个样本上似乎都是渐进式的发散,但不同时间间隔的相同配置的网络给出了完全相反的买入/卖出信号。尽管在数学上对赢钱的预期是积极的,但最后我还是得出结论,我还是在玩赌场。而这一切,分别是因为最初的加权系数,这是我得出的结论。这些是我的想法:) Neutron 2009.06.04 07:12 #422 registred писал(а)>> 顺便说一下,根据我的观察,网格快速学习的最佳随机化权重是在[-0.07; +0.07]的区间。我不知道为什么会出现这种情况:) 这意味着你没有足够的学习纪元。在极限情况下,无论你从哪里开始(甚至是+/-10),网格都应该在一个最佳状态下滚动,对于居中的输入数据来说,这接近于小数值。你是人为地把它转移到那里。这并不总是一件好事。 反过来说也是如此,如果没有找到全局最小值或至少其附近的值,那么每一步的训练都可能不尽人意。我研究了一下这个问题,我个人得到了类似于自欺欺人的东西,当误差在两个样本上似乎都是渐进式的发散,但不同时间间隔的相同配置的网络给出了完全相反的买入/卖出信号。尽管在数学上对赢钱的预期是积极的,但最后我还是得出结论,我还是在玩赌场。而这一切,分别是因为最初的加权系数,这是我得出的结论。这些是我的想法:) 这是一个训练有素的网格的症状。你确定训练向量没有比最佳的 P=w^2/d 短吗? [删除] 2009.06.04 07:14 #423 Neutron >> : 这意味着你没有足够的训练纪元。在极限情况下,无论你从哪里开始(甚至是+/-10),网格都应该滚动到一个最佳状态,对于居中的输入数据来说,它位于小值附近。你是人为地把它转移到那里。这并不总是一件好事。 是的,我努力把它保持在最低限度。我不想等待它在几十万个纪元后最终给我一些东西。通常情况下,几千,或几万就够了。 Neutron 2009.06.04 07:18 #424 registred писал(а)>> 通常情况下,几千,或几万就够了。 惊讶吧! 我有几百个。 [删除] 2009.06.04 07:19 #425 Neutron >> : 这意味着你没有足够的训练纪元。在极限情况下,无论你从哪里开始(甚至是+/-10),网格都应该滚动到一个最佳状态,对于居中的输入数据来说,它位于小值附近。你是人为地把它转移到那里。这并不总是一件好事。 这是一个训练有素的网格的症状。你确定训练向量不比最佳的P=w^2/d短吗? 说实话,我已经很久没有看这样的公式了,都是通过实验,从少量的神经元开始,一直到两个样本上的误差渐进地分开为止,这整个过程。在找到层中权重的最佳值后,我重新训练了几次网络,在同一个样本上有不同的结果,但每个网格的初始权重都不同。试着从头开始重新训练你的网,看看你是否在历史上得到同样的交易。你以后会告诉我的,我很想知道。 [删除] 2009.06.04 07:19 #426 Neutron >> : 惊讶吧! 我有几百个。 嗯,正如他们所说,飞行很好。) Neutron 2009.06.04 07:26 #427 registred писал(а)>> 试着从头开始重新训练你的网络,看看你是否在历史上得到同样的交易。以后再告诉我,我很想知道。 嗯,当然不是! 所有的交易都会有所不同,以此类推,但利润平均来说是一样的(而且非常小)。我对平均数的可重复性感兴趣,它节省了计算资源。 [删除] 2009.06.04 07:33 #428 Neutron >> : 嗯,当然不是! 所有的交易都会有所不同,一次又一次,但平均利润是一样的(而且非常小)。我对平均数的可重复性感兴趣。 所以我认为你是在赌场里玩。我建议你使用委员会,因为它可能会产生最佳效果。我个人对这样的工作条件并不满意。我不能在新的数据上重新训练网络,这样做会引入错误,而且没有收益,如果在重新训练后,再在这段历史上测试网络,就没有收益。 paralocus 2009.06.04 07:36 #429 是的,我想我已经得到了它。有初始随机化的网格的结果显然不需要完全重复。只要结果在某个小范围内是稳定的就够了。 例如,它看起来是这样的。 方案1: 例子2: 除了在两种情况下进行的初始化之外,输入数据是相同的。 Neutron 2009.06.04 07:39 #430 这就对了,同志! 1...363738394041424344454647484950...104 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
细心的人是更好的人!收紧程序并不复杂,NS训练也不会受到影响--这是一种有效的方法。
至于说没有达到最佳值,这对我们的BP来说纯粹是虚张声势。如果你预测的是正弦波,我可以理解!- 那么是的--有最佳值。但是,在市场动荡的情况下,那些是什么呢?现在,最佳状态就在那里,在下一步(你所预测的),它就在那里......。而你正在全力以赴地寻找 "这里"。简而言之,不存在精确的定位问题,通过每一步的过度训练就能圆满解决。
反过来说也是如此,如果没有找到全局最小值,或者至少没有找到它的附近,那么每一步的训练都可能不尽人意。我研究了一下这个问题,我个人得到了类似于自欺欺人的东西,当误差在两个样本上似乎都是渐进式的发散,但不同时间间隔的相同配置的网络给出了完全相反的买入/卖出信号。尽管在数学上对赢钱的预期是积极的,但最后我还是得出结论,我还是在玩赌场。而这一切,分别是因为最初的加权系数,这是我得出的结论。这些是我的想法:)
顺便说一下,根据我的观察,网格快速学习的最佳随机化权重是在[-0.07; +0.07]的区间。我不知道为什么会出现这种情况:)
这意味着你没有足够的学习纪元。在极限情况下,无论你从哪里开始(甚至是+/-10),网格都应该在一个最佳状态下滚动,对于居中的输入数据来说,这接近于小数值。你是人为地把它转移到那里。这并不总是一件好事。
反过来说也是如此,如果没有找到全局最小值或至少其附近的值,那么每一步的训练都可能不尽人意。我研究了一下这个问题,我个人得到了类似于自欺欺人的东西,当误差在两个样本上似乎都是渐进式的发散,但不同时间间隔的相同配置的网络给出了完全相反的买入/卖出信号。尽管在数学上对赢钱的预期是积极的,但最后我还是得出结论,我还是在玩赌场。而这一切,分别是因为最初的加权系数,这是我得出的结论。这些是我的想法:)
这是一个训练有素的网格的症状。你确定训练向量没有比最佳的 P=w^2/d 短吗?
这意味着你没有足够的训练纪元。在极限情况下,无论你从哪里开始(甚至是+/-10),网格都应该滚动到一个最佳状态,对于居中的输入数据来说,它位于小值附近。你是人为地把它转移到那里。这并不总是一件好事。
是的,我努力把它保持在最低限度。我不想等待它在几十万个纪元后最终给我一些东西。通常情况下,几千,或几万就够了。
通常情况下,几千,或几万就够了。
惊讶吧!
我有几百个。
这意味着你没有足够的训练纪元。在极限情况下,无论你从哪里开始(甚至是+/-10),网格都应该滚动到一个最佳状态,对于居中的输入数据来说,它位于小值附近。你是人为地把它转移到那里。这并不总是一件好事。
这是一个训练有素的网格的症状。你确定训练向量不比最佳的P=w^2/d短吗?
说实话,我已经很久没有看这样的公式了,都是通过实验,从少量的神经元开始,一直到两个样本上的误差渐进地分开为止,这整个过程。在找到层中权重的最佳值后,我重新训练了几次网络,在同一个样本上有不同的结果,但每个网格的初始权重都不同。试着从头开始重新训练你的网,看看你是否在历史上得到同样的交易。你以后会告诉我的,我很想知道。
惊讶吧!
我有几百个。
嗯,正如他们所说,飞行很好。)
试着从头开始重新训练你的网络,看看你是否在历史上得到同样的交易。以后再告诉我,我很想知道。
嗯,当然不是!
所有的交易都会有所不同,以此类推,但利润平均来说是一样的(而且非常小)。我对平均数的可重复性感兴趣,它节省了计算资源。
嗯,当然不是!
所有的交易都会有所不同,一次又一次,但平均利润是一样的(而且非常小)。我对平均数的可重复性感兴趣。
所以我认为你是在赌场里玩。我建议你使用委员会,因为它可能会产生最佳效果。我个人对这样的工作条件并不满意。我不能在新的数据上重新训练网络,这样做会引入错误,而且没有收益,如果在重新训练后,再在这段历史上测试网络,就没有收益。
是的,我想我已经得到了它。有初始随机化的网格的结果显然不需要完全重复。只要结果在某个小范围内是稳定的就够了。
例如,它看起来是这样的。
方案1:
例子2:
除了在两种情况下进行的初始化之外,输入数据是相同的。
这就对了,同志!