神经网络和输入 - 页 41

 
nikelodeon:
我已经准备了一个11列+1列输出的样本。问题:当启动预测器时,应指定多少列。只有数据量(11)或与输出量(12)一起????

也就是说,如果在最初的电子表格(csv文件)中,列数N>46,行数M,那么计算时间成本与:2*(N-2)+M-2成正比。

如果电子表格中的列数N<13,计算所花费的时间与2*(N-2)2+M-2成正比

也就是说,如果电子表格中的列数为N=12(10个输入),那么在同一台计算机上的计算时间将与N=1025(1023个输入)相同。因为对于输入数小于11的情况下,MSUA 内核变换被激活。

 
好了,我们已经把时间整理好了。但我还注意到另一件事。如果你对同一个文件进行优化,你会得到完全不同的结果...像完全....当然,它们之间存在差异,有时甚至非常大。这有什么关系呢,尤里?我想,在这种情况下的优化过程中,我们一定会得出相同的结果。但在这里,事实证明结果是不同的....:-( 是关于什么的?
 
nikelodeon:
好了,我们已经整理好了时间。但我注意到另一件事。如果你优化一个相同的文件,你会得到完全不同的结果...。像完全....当然,它们之间存在差异,有时甚至非常大。这有什么关系呢,尤里?我想,在这种情况下的优化过程中,我们一定会得出相同的结果。但在这里,事实证明结果是不同的....:-( 这与什么有关?

这与随机性有关。使用jPrediction将一般样本分成两个子样本,一个训练样本和一个控制样本。jPrediction进行了100次尝试,将一般样本分成两部分。

在每次尝试中,都会在训练子样本上建立一个模型。在控制样本上,模型被检查 "是否有问题"。显示了在对照组上获得的结果(可推广性)。但训练能力的结果在地狱里是不需要的,因为它们是一种拟合,因此不在任何地方显示。

如果在同一个样本上,不同的运行,最好的概括性结果是非常不同的,这意味着样本是没有代表性的--输入的垃圾太多了。也就是说,预测因子的显著性很低。

如果样本具有代表性,同一个最佳模型可以在100次运行中建立一次以上,也就是说,它并不太依赖于哪些例子包含在训练样本中,哪些包含在控制样本中。

 
Reshetov:


在预测NS时间序列 时,使用PRNG对样本进行分割是没有实际意义的--完全是胡说八道,什么都没有显示。

只在时间序列结束时用控制样本进行人工分区

 
晚上好......有没有一个使用神经网络的EA的例子,比如说,muving或其他一些指标? 或者更容易的是,在MT上建立一个神经网络的EA 的muving是什么?