如何正确形成NS的输入值。 - 页 10 1...34567891011121314151617...31 新评论 Леонид 2008.07.08 14:11 #91 TheXpert писал (а)>> 算了,如果我说错了,对不起。 如果那个帖子不清楚,我将尝试更详细地解释这个交叉检查是什么。假设我们正在训练一个最小误差的网络。假设我们在2007年试过,得到中间结果0.5,我们在2008年检查,得到0.8。然后我们得到了2007年的0.4,并与2008年的0.7核对。旧的网被丢弃,我们记住了这张网,并跟着训练。然后我们得到了2007年的0.3和2008年的0.6。旧的网被丢弃了,记住这个网,继续训练。2007年--0.2,2008年--0.8。这个网络没有被记住,以前的网络被保留。它将被保存在记忆中,并被进一步训练。如果我们在2008年没有设法使其低于0.6,我们就保留2008年有0.6和2007年有0.3的网络,而不是2007年有0.2或更少的网络。实际上,进一步的网络训练就是过度训练。这就避免了过度训练,尽管它并不总是能拯救它。 而且你可以看到,正向测试与此无关......)))))。 Сергей 2008.07.08 14:29 #92 TheXpert писал (а)>> ... 关于代码 -- Neurosolutions或Neuroshel 2会将代码移植到MQL4吗?我将写几个函数,我认为这对这里的居民是有用的,也许对我也有用。更有理由写一百行代码了--这要花我一个小时。 不,通过导入dll/def或从 "c "改写。 我将写几个函数,我认为这对这里的居民是有用的,也许对我也有用。更有理由去写一百行代码 -- 这是一个小时的时间。 特别是,如果他们将致力于"1。准备输入数据。(均值偏移、去相关、协方差均衡)。",那么就非常酷,如果......。在MQL4中的另一个NS的实现,那么......。 例如,我一直无法理解如何在代码中实现 "输入的重要性"、"输入的交叉相关 "这些美丽的词汇(没有埃佐夫在手边插入更多美丽的词汇)。即我知道的公式/算法,但对OHLC,噪音或反之DC过滤器,以及只是 "离散值",当分钟是有趣的,天是晚的。:) TheXpert 2008.07.08 14:41 #93 SergNF писал (а)>> 不,通过导入dll/def或从 "s "改写。 特别是如果他们将致力于"1。准备输入数据。(均值偏移、去相关、协方差均衡)。", >> 这就对了。 我就从来没有弄清楚如何在代码中实现 "输入的重要性"、"输入的交叉相关 "这些漂亮的词(手头没有Ezhov来插入更多的漂亮词)。即我知道的公式/算法,但对OHLC,噪音或反之DC过滤器,以及只是 "离散值",当分钟是有趣的,天是晚的。:) 这有什么大不了的?这些公式并不关心他们是否提供了分钟或周的数据。 Егор 2008.07.08 20:45 #94 LeoV писал (а)>> 如果那个帖子不清楚的话,我将尝试更详细地解释这个交叉检查是什么。假设我们正在训练一个最小误差的网络。假设我们在2007年试过,得到中间结果0.5,我们在2008年检查,得到0.8。然后我们得到了2007年的0.4,并与2008年的0.7核对。旧的网被丢弃,我们记住了这张网,并跟着训练。然后我们得到了2007年的0.3和2008年的0.6。旧的网被丢弃了,记住这个网,继续训练。2007年--0.2,2008年--0.8。这个网络没有被记住,以前的网络被保留。它将被保存在记忆中,并被进一步训练。如果我们在2008年没有设法使其低于0.6,我们就保留2008年有0.6和2007年有0.3的网络,而不是2007年有0.2或更少的网络。实际上,进一步的网络训练就是过度训练。这就避免了过度训练,尽管它并不总是能拯救它。 而且你可以看到,正向测试与此无关......)))))。 换句话说,训练/优化不是在训练样本 的误差最小时结束,而是在测试 样本的误差开始增加之前结束。 Леонид 2008.07.08 21:02 #95 Erics писал (а)>> 换句话说,训练/优化不是在训练样本 中误差最小时结束,而是在测试 样本中误差开始增加之前结束。 所以基本上是的。因为理论上说,当训练样本的误差减少时,测试样本的误差大小首先会减少,然后开始增加,尽管训练样本的误差不断减少。诀窍是要抓住这个槽点。这就是过度训练(对于网络)或过度优化(对于TC)的意义。 --- 2008.07.09 08:24 #96 LeoV писал (а)>> 嗯,是的。因为理论上讲,测试样本的误差先是随着训练样本的误差减少而下降,然后开始增加,尽管训练样本的误差一直在减少。诀窍是要抓住这个槽点。这就是过度训练(对于网络)或过度优化(对于TC)的意义。 Леонид 2008.07.09 08:25 #97 sergeev писал (а)>> 完全正确。只有一个小问题需要说明。当曲线上升时,可能会有最小值,但它们应该比第一个最小值高(理论上)。虽然有时可以更少(在实践中),但这是很少的。 --- 2008.07.09 08:29 #98 这里有一张关于过度训练的图片 --- 2008.07.09 08:34 #99 LeoV писал (а)>> 完全正确。只有一个小问题需要说明。当曲线上升时,可能会有最小值,但它们应该比第一个最小值高(理论上)。虽然有时可能更少(在实践中),但这是很少的。 说得好。 总的来说,这个主题的理论已经说了很多(你可以在我们的论坛上进行论文答辩:)。 而现在的心灵对实践经验和知识充满了渴求。 如果可能的话,让从业者分享他们在分析和准备输入 值方面的经验。这就是具体的例子。 >> 谢谢你。 Леонид 2008.07.09 08:39 #100 sergeev писал (а)>> 如果可能,让从业人员分享他们在分析和准备投入 方面的经验。就是说,具体的例子。 输入值也不是一个简单的问题。向主电源输入提供什么取决于许多因素 - 1.使用什么类型的神经网络。 2.我们想从神经网络中得到什么--价格或运动方向或反转点或下一个蜡烛或其他东西。 所以你必须先决定这些问题,然后再决定投入。 1...34567891011121314151617...31 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
算了,如果我说错了,对不起。
如果那个帖子不清楚,我将尝试更详细地解释这个交叉检查是什么。假设我们正在训练一个最小误差的网络。假设我们在2007年试过,得到中间结果0.5,我们在2008年检查,得到0.8。然后我们得到了2007年的0.4,并与2008年的0.7核对。旧的网被丢弃,我们记住了这张网,并跟着训练。然后我们得到了2007年的0.3和2008年的0.6。旧的网被丢弃了,记住这个网,继续训练。2007年--0.2,2008年--0.8。这个网络没有被记住,以前的网络被保留。它将被保存在记忆中,并被进一步训练。如果我们在2008年没有设法使其低于0.6,我们就保留2008年有0.6和2007年有0.3的网络,而不是2007年有0.2或更少的网络。实际上,进一步的网络训练就是过度训练。这就避免了过度训练,尽管它并不总是能拯救它。
而且你可以看到,正向测试与此无关......)))))。
...
关于代码 -- Neurosolutions或Neuroshel 2会将代码移植到MQL4吗?我将写几个函数,我认为这对这里的居民是有用的,也许对我也有用。更有理由写一百行代码了--这要花我一个小时。
不,通过导入dll/def或从 "c "改写。
我将写几个函数,我认为这对这里的居民是有用的,也许对我也有用。更有理由去写一百行代码 -- 这是一个小时的时间。
特别是,如果他们将致力于"1。准备输入数据。(均值偏移、去相关、协方差均衡)。",那么就非常酷,如果......。在MQL4中的另一个NS的实现,那么......。
例如,我一直无法理解如何在代码中实现 "输入的重要性"、"输入的交叉相关 "这些美丽的词汇(没有埃佐夫在手边插入更多美丽的词汇)。即我知道的公式/算法,但对OHLC,噪音或反之DC过滤器,以及只是 "离散值",当分钟是有趣的,天是晚的。:)
不,通过导入dll/def或从 "s "改写。
特别是如果他们将致力于"1。准备输入数据。(均值偏移、去相关、协方差均衡)。",
>> 这就对了。
我就从来没有弄清楚如何在代码中实现 "输入的重要性"、"输入的交叉相关 "这些漂亮的词(手头没有Ezhov来插入更多的漂亮词)。即我知道的公式/算法,但对OHLC,噪音或反之DC过滤器,以及只是 "离散值",当分钟是有趣的,天是晚的。:)
这有什么大不了的?这些公式并不关心他们是否提供了分钟或周的数据。
如果那个帖子不清楚的话,我将尝试更详细地解释这个交叉检查是什么。假设我们正在训练一个最小误差的网络。假设我们在2007年试过,得到中间结果0.5,我们在2008年检查,得到0.8。然后我们得到了2007年的0.4,并与2008年的0.7核对。旧的网被丢弃,我们记住了这张网,并跟着训练。然后我们得到了2007年的0.3和2008年的0.6。旧的网被丢弃了,记住这个网,继续训练。2007年--0.2,2008年--0.8。这个网络没有被记住,以前的网络被保留。它将被保存在记忆中,并被进一步训练。如果我们在2008年没有设法使其低于0.6,我们就保留2008年有0.6和2007年有0.3的网络,而不是2007年有0.2或更少的网络。实际上,进一步的网络训练就是过度训练。这就避免了过度训练,尽管它并不总是能拯救它。
而且你可以看到,正向测试与此无关......)))))。
换句话说,训练/优化不是在训练样本 的误差最小时结束,而是在测试 样本的误差开始增加之前结束。
换句话说,训练/优化不是在训练样本 中误差最小时结束,而是在测试 样本中误差开始增加之前结束。
所以基本上是的。因为理论上说,当训练样本的误差减少时,测试样本的误差大小首先会减少,然后开始增加,尽管训练样本的误差不断减少。诀窍是要抓住这个槽点。这就是过度训练(对于网络)或过度优化(对于TC)的意义。
嗯,是的。因为理论上讲,测试样本的误差先是随着训练样本的误差减少而下降,然后开始增加,尽管训练样本的误差一直在减少。诀窍是要抓住这个槽点。这就是过度训练(对于网络)或过度优化(对于TC)的意义。
完全正确。只有一个小问题需要说明。当曲线上升时,可能会有最小值,但它们应该比第一个最小值高(理论上)。虽然有时可以更少(在实践中),但这是很少的。
这里有一张关于过度训练的图片
完全正确。只有一个小问题需要说明。当曲线上升时,可能会有最小值,但它们应该比第一个最小值高(理论上)。虽然有时可能更少(在实践中),但这是很少的。
说得好。
总的来说,这个主题的理论已经说了很多(你可以在我们的论坛上进行论文答辩:)。
而现在的心灵对实践经验和知识充满了渴求。
如果可能的话,让从业者分享他们在分析和准备输入 值方面的经验。这就是具体的例子。
>> 谢谢你。
输入值也不是一个简单的问题。向主电源输入提供什么取决于许多因素 -
1.使用什么类型的神经网络。
2.我们想从神经网络中得到什么--价格或运动方向或反转点或下一个蜡烛或其他东西。
所以你必须先决定这些问题,然后再决定投入。