市场礼仪或雷区中的良好风度 - 页 43

 
Neutron >> :

细心的人是更好的人!收紧程序并不复杂,NS训练也不会受到影响--这是一种有效的方法。

至于说没有达到最佳值,这对我们的BP来说纯粹是虚张声势。如果你预测的是正弦波,我可以理解!- 那么是的--有最佳值。但是,在市场动荡的情况下,那些是什么呢?现在,最佳状态就在那里,在下一步(你所预测的),它就在那里......。而你正在全力以赴地寻找 "这里"。简而言之,不存在精确的定位问题,通过每一步的过度训练就能圆满解决。

反过来说也是如此,如果没有找到全局最小值,或者至少没有找到它的附近,那么每一步的训练都可能不尽人意。我研究了一下这个问题,我个人得到了类似于自欺欺人的东西,当误差在两个样本上似乎都是渐进式的发散,但不同时间间隔的相同配置的网络给出了完全相反的买入/卖出信号。尽管在数学上对赢钱的预期是积极的,但最后我还是得出结论,我还是在玩赌场。而这一切,分别是因为最初的加权系数,这是我得出的结论。这些是我的想法:)

 
registred писал(а)>>

顺便说一下,根据我的观察,网格快速学习的最佳随机化权重是在[-0.07; +0.07]的区间。我不知道为什么会出现这种情况:)

这意味着你没有足够的学习纪元。在极限情况下,无论你从哪里开始(甚至是+/-10),网格都应该在一个最佳状态下滚动,对于居中的输入数据来说,这接近于小数值。你是人为地把它转移到那里。这并不总是一件好事。

反过来说也是如此,如果没有找到全局最小值或至少其附近的值,那么每一步的训练都可能不尽人意。我研究了一下这个问题,我个人得到了类似于自欺欺人的东西,当误差在两个样本上似乎都是渐进式的发散,但不同时间间隔的相同配置的网络给出了完全相反的买入/卖出信号。尽管在数学上对赢钱的预期是积极的,但最后我还是得出结论,我还是在玩赌场。而这一切,分别是因为最初的加权系数,这是我得出的结论。这些是我的想法:)

这是一个训练有素的网格的症状。你确定训练向量没有比最佳的 P=w^2/d 短吗?

 
Neutron >> :

这意味着你没有足够的训练纪元。在极限情况下,无论你从哪里开始(甚至是+/-10),网格都应该滚动到一个最佳状态,对于居中的输入数据来说,它位于小值附近。你是人为地把它转移到那里。这并不总是一件好事。

是的,我努力把它保持在最低限度。我不想等待它在几十万个纪元后最终给我一些东西。通常情况下,几千,或几万就够了。

 
registred писал(а)>>

通常情况下,几千,或几万就够了。

惊讶吧!

我有几百个。

 
Neutron >> :

这意味着你没有足够的训练纪元。在极限情况下,无论你从哪里开始(甚至是+/-10),网格都应该滚动到一个最佳状态,对于居中的输入数据来说,它位于小值附近。你是人为地把它转移到那里。这并不总是一件好事。

这是一个训练有素的网格的症状。你确定训练向量不比最佳的P=w^2/d短吗?

说实话,我已经很久没有看这样的公式了,都是通过实验,从少量的神经元开始,一直到两个样本上的误差渐进地分开为止,这整个过程。在找到层中权重的最佳值后,我重新训练了几次网络,在同一个样本上有不同的结果,但每个网格的初始权重都不同。试着从头开始重新训练你的网,看看你是否在历史上得到同样的交易。你以后会告诉我的,我很想知道。

 
Neutron >> :

惊讶吧!

我有几百个。

嗯,正如他们所说,飞行很好。)

 
registred писал(а)>>

试着从头开始重新训练你的网络,看看你是否在历史上得到同样的交易。以后再告诉我,我很想知道。

嗯,当然不是!

所有的交易都会有所不同,以此类推,但利润平均来说是一样的(而且非常小)。我对平均数的可重复性感兴趣,它节省了计算资源。

 
Neutron >> :

嗯,当然不是!

所有的交易都会有所不同,一次又一次,但平均利润是一样的(而且非常小)。我对平均数的可重复性感兴趣。

所以我认为你是在赌场里玩。我建议你使用委员会,因为它可能会产生最佳效果。我个人对这样的工作条件并不满意。我不能在新的数据上重新训练网络,这样做会引入错误,而且没有收益,如果在重新训练后,再在这段历史上测试网络,就没有收益。

 

是的,我想我已经得到了它。有初始随机化的网格的结果显然不需要完全重复。只要结果在某个小范围内是稳定的就够了。

例如,它看起来是这样的。

方案1:


例子2:


除了在两种情况下进行的初始化之外,输入数据是相同的。

 

这就对了,同志!