文章:用神经网络进行价格预测 - 页 13

 
Ulterior:

Dobrovo vam vremia sutoki izvinite za translit.

没有赞美之词!

 
Neutron:

好吧,但我想知道一个理论。

以下是大声说出的推理。对于输入数为N的单层NS,我们有N个突触,其权重在非线性方程的一般情况下唯一地决定了系统N。很明显,要解决这样一个系统,我们需要一个由N个向量组成的训练样本,每个向量由N个元素组成。在这种情况下,它没有任何其他的工作方式。对于两层NS,输入的数量必须小于训练向量总数N的n,其中n是第二层的突触数量,所以训练向量的长度为N-n。

对于一个3层的NS,推理的顺序是一样的。

因此。

1.我们从我们需要的沉浸深度出发,确定NS输入的维度。

2.然后考虑到NS的结构(层数),我们计算突触的数量,并得到最佳的训练样本大小。


推理是好的,但它是经验性的......。即很难建立一个只取决于输入数据的类型和对其表示的算法。

 
Sergey_Murzinov:

最重要的事情之一(在我看来)是数据准备,要做到这一点

1.尽量减少投入的关联性。换句话说,输入应尽可能地在统计上独立。

2.在输入向量的规范化过程中,有必要实现熵的增加--从而在保持相同数量的输入数据的情况下,增加提交给NS的信息数量。

数据质量检查是强制性的,例如,使用Kolmogorov-Smirnov方法或/和Hurst指数。


通过选择网络结构,我们可以减少误差。

我不同意,任何数据的转换 都是对初始样本的信息量的改变。评估数据变化的标准在哪里?我想每个参与NS的人都知道在下一个NS热潮中发生的老笑话。当美国军方试图将NS用于地对地射击系统时。其中一个组件是一个模式识别网络,它在学习等方面非常成功,但由于某些原因,它在雨天识别坦克,当它被提交给不同景观结构的数据时,它犯了一个糟糕的错误。原因是该网络已经学会了很好地识别景观,但没有识别坦克。


如果我们改变数据,问题可能是一样的--网络将只选择属于归一化系列的序列(模式),因为原则上我们可以把归一化过程本身视为时间序列波动的一个组成部分。

 
我现在创建了一个两层的非线性NS,看到它的预测能力比单层非线性的略高。但预测的散点明显变小了,这很好。还可以注意到,当输入的数量增加时,NS表现出明显的平滑特性。然而,在我的案例中,训练向量的数量成比例增加,也许原因导致了训练样本的增加。有必要以某种方式分离这些影响...
 

这显示了测试 两个NS的预测能力的结果


图中红色显示的是原始时间序列(RT),蓝色显示的是线性单层网络在1bar前的预测,绿色显示的是非线性双层网络。在这两种情况下,浸泡的深度是相同的。可以看出,对于这个人工案例,在BP趋势图上有一个明显的预测数据的残留。我想知道我的有经验的同事是否观察到这种效果,如果是的话,它可能与什么有关?

 

rip писал (а):


我不同意,任何数据的转换都是对原始样本的信息量的改变。评估数据变化的标准在哪里?我想每个参与NS的人都知道在下一个NS热潮中发生的老笑话。当美国军方试图将NS用于地对地射击系统时。其中一个组件是一个模式识别网络,它在学习等方面非常成功,但由于某些原因,它在雨天识别坦克,当它被提交给不同景观结构的数据时,它犯了一个糟糕的错误。原因是该网络已经学会了很好地识别景观,但没有识别坦克。


如果我们改变数据,问题可能是一样的--网络将只挑出属于归一化系列的序列(模式),因为原则上我们可以把归一化过程本身视为时间序列波动的一个组成部分。

我没有说高兴。这是大多数人所持的观点。我很高兴。

 
Sergey_Murzinov:

撕裂 写道(a)。


我不同意,任何数据的转换,都是对原始样本的信息量的改变。评估数据变化的标准在哪里?我想每个参与NS的人都知道在下一次NS热潮中发生的一个老笑话。当美国军方试图将NS用于地对地射击系统时。其中一个组件是一个模式识别网络,它在学习等方面非常成功,但由于某些原因,它在雨天识别坦克,当它被提交给不同景观结构的数据时,它犯了一个糟糕的错误。原因是该网络已经学会了很好地识别景观,但没有识别坦克。


如果我们改变数据,问题可能是一样的--网络将只挑出属于归一化系列的序列(模式),因为原则上我们可以把归一化过程本身视为时间序列波动的一个组成部分。

我没有说高兴。这是大多数人所持的观点。我很高兴。

意见是意见,但在实践中是不同的。我曾尝试用遗传算法 来优化网络结构,结果很有趣--但需要很长的时间来计算。

 

下面是网络预测能力的另一个比较。


这是一个单层非线性NS(蓝线)和双层非线性NS的预测工作的进步。在这里,单层看起来比较好。

将这些测试结果 与其他NS架构的测试结果进行比较是很有意思的。有谁能把他们的结果公布出来,以供比较?

 

rip писал (а):


意见是意见,但在实践中是不同的。我试着用遗传算法 来优化网络结构,结果很有趣--但需要很长的时间来计算。

如果大约24小时是很多的话,那么是的。只是请注意,在处理网络(操作它们)时,要做一次。

 

中子

到目前为止还没有结果,正在慢慢掌握它。

关于第一个帖子(有第一张图片),试图理解你的意思。我个人没有看到明显的滞后现象。相反,在存在某种模式的领域,它(网络)相当擅长识别它,而误差只是在趋势的断裂处(而且它们在这里是随机的,或者样本量不足以在它们的出现中建立某种模式)。