神经网络和输入 - 页 41 1...3435363738394041 新评论 Yury Reshetov 2015.01.23 09:06 #401 nikelodeon: 我已经准备了一个11列+1列输出的样本。问题:当启动预测器时,应指定多少列。只有数据量(11)或与输出量(12)一起????也就是说,如果在最初的电子表格(csv文件)中,列数N>46,行数M,那么计算时间成本与:2*(N-2)+M-2成正比。如果电子表格中的列数N<13,计算所花费的时间与2*(N-2)2+M-2成正比也就是说,如果电子表格中的列数为N=12(10个输入),那么在同一台计算机上的计算时间将与N=1025(1023个输入)相同。因为对于输入数小于11的情况下,MSUA 内核变换被激活。 Mihail Marchukajtes 2015.01.25 18:18 #402 好了,我们已经把时间整理好了。但我还注意到另一件事。如果你对同一个文件进行优化,你会得到完全不同的结果...像完全....当然,它们之间存在差异,有时甚至非常大。这有什么关系呢,尤里?我想,在这种情况下的优化过程中,我们一定会得出相同的结果。但在这里,事实证明结果是不同的....:-( 是关于什么的? Yury Reshetov 2015.02.08 14:10 #403 nikelodeon: 好了,我们已经整理好了时间。但我注意到另一件事。如果你优化一个相同的文件,你会得到完全不同的结果...。像完全....当然,它们之间存在差异,有时甚至非常大。这有什么关系呢,尤里?我想,在这种情况下的优化过程中,我们一定会得出相同的结果。但在这里,事实证明结果是不同的....:-( 这与什么有关?这与随机性有关。使用jPrediction将一般样本分成两个子样本,一个训练样本和一个控制样本。jPrediction进行了100次尝试,将一般样本分成两部分。 在每次尝试中,都会在训练子样本上建立一个模型。在控制样本上,模型被检查 "是否有问题"。显示了在对照组上获得的结果(可推广性)。但训练能力的结果在地狱里是不需要的,因为它们是一种拟合,因此不在任何地方显示。如果在同一个样本上,不同的运行,最好的概括性结果是非常不同的,这意味着样本是没有代表性的--输入的垃圾太多了。也就是说,预测因子的显著性很低。如果样本具有代表性,同一个最佳模型可以在100次运行中建立一次以上,也就是说,它并不太依赖于哪些例子包含在训练样本中,哪些包含在控制样本中。 Дмитрий 2015.02.08 14:30 #404 Reshetov: 在预测NS时间序列 时,使用PRNG对样本进行分割是没有实际意义的--完全是胡说八道,什么都没有显示。只在时间序列结束时用控制样本进行人工分区 [删除] 2015.02.08 20:15 #405 晚上好......有没有一个使用神经网络的EA的例子,比如说,muving或其他一些指标? 或者更容易的是,在MT上建立一个神经网络的EA 的muving是什么? 1...3435363738394041 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我已经准备了一个11列+1列输出的样本。问题:当启动预测器时,应指定多少列。只有数据量(11)或与输出量(12)一起????
也就是说,如果在最初的电子表格(csv文件)中,列数N>46,行数M,那么计算时间成本与:2*(N-2)+M-2成正比。
如果电子表格中的列数N<13,计算所花费的时间与2*(N-2)2+M-2成正比
也就是说,如果电子表格中的列数为N=12(10个输入),那么在同一台计算机上的计算时间将与N=1025(1023个输入)相同。因为对于输入数小于11的情况下,MSUA 内核变换被激活。
好了,我们已经整理好了时间。但我注意到另一件事。如果你优化一个相同的文件,你会得到完全不同的结果...。像完全....当然,它们之间存在差异,有时甚至非常大。这有什么关系呢,尤里?我想,在这种情况下的优化过程中,我们一定会得出相同的结果。但在这里,事实证明结果是不同的....:-( 这与什么有关?
这与随机性有关。使用jPrediction将一般样本分成两个子样本,一个训练样本和一个控制样本。jPrediction进行了100次尝试,将一般样本分成两部分。
在每次尝试中,都会在训练子样本上建立一个模型。在控制样本上,模型被检查 "是否有问题"。显示了在对照组上获得的结果(可推广性)。但训练能力的结果在地狱里是不需要的,因为它们是一种拟合,因此不在任何地方显示。
如果在同一个样本上,不同的运行,最好的概括性结果是非常不同的,这意味着样本是没有代表性的--输入的垃圾太多了。也就是说,预测因子的显著性很低。
如果样本具有代表性,同一个最佳模型可以在100次运行中建立一次以上,也就是说,它并不太依赖于哪些例子包含在训练样本中,哪些包含在控制样本中。
在预测NS时间序列 时,使用PRNG对样本进行分割是没有实际意义的--完全是胡说八道,什么都没有显示。
只在时间序列结束时用控制样本进行人工分区