市场礼仪或雷区中的良好风度 - 页 25

 
registred писал(а)>>

先生们,你们能不能告诉我,你们是如何处理飞入浅的局部低点和弯曲的初始重量?我明白,在开始时,它们对训练没有影响,但后来它们开始对结果产生很大的影响。

我规定每一步都要重新训练网络。显然,在这种设置中,网络可能偶尔会 "不在状态",但在下一步,它就在需要的地方了。我的想法是基于这样一个事实:网络学习 "错误 "东西的概率明显小于1,而且一般来说,在大样本的再训练中,"疯孩子 "的贡献是最小的。

paralocus 写道>>。

我对如何减少另一个epoch.... 的贡献乘数有点困惑。我在训练结束时,输出层的权重非常小,而隐藏层的权重却很大,相反。

提醒:W2 [0] = -0.0414 W2 [1] = 0.0188 W2 [2] = -0.0539

提醒:W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5]=-37.5899

在这里,你将不得不自己思考。我将只预测预期价格上涨的迹象(+/-1)。这与交易的特殊性有关(见上面几个帖子中的交易基本方程式),以及试图同时预测振幅和符号的事实使得它具有灾难性的难度(TC架构和训练纪元的数量正在增加)。在这里,没有家庭PC的力量是不够的,即使我们不在每一步都对电网进行重新培训!"。因此,传统上,在预测绝对的BP值时,在每个历时中控制学习误差,直到它变得小于一些。这个过程可能不会收敛--网格挂在一个无限的循环中,需要有机制将其从昏迷状态中拉出来。当我对此进行实验时,我控制了学习错误的减少率,当条件得到满足时--重新修改所有权重,即实际上是重新开始学习。这时,我必须找出学习所需的大概历时数,每个历时的权重(每个权重校正前的系数)按1-j/N的规律减少。在我放弃了预测振幅后,网络开始快速有效地学习,因此有可能在不监测学习误差的情况下引入固定数量的历时训练。

此外,从预测到预测,为了减少历时的数量,我保留了网络的权重值,而没有将它们随机化。有时我有一种 "粘 "某些重量的效果,表现为它们的无限增加或趋向于零。我是这样处理的:当做一个新的预测时,我用th()操作符影响了所有的权重。它的工作很有效率。

 
Neutron >> :
...固定数量的训练纪元,不监测学习误差。

>>问题已经解决了!

 

中子

我正在把我所有的两层材料改写成更紧凑的形式。我想把它全部简化为两个或三个函数的矩阵运算。我一完成就会公布。

同时,我将 "切出 "振幅预测。事实上--这个标志是绰绰有余的。

 
Neutron >> :

这就是你必须为自己考虑的地方。

你是说考虑如何从计算振幅误差到计算符号误差?

你是说这里?

d_2_out = test - out;                                             // Ошибка на выходе сетки
 

不,我是在泛泛而谈。很明显,你会走自己的路...

 

有几个问题,为了避免在这里引起不必要的骚动,我想通过专线问一下。

我知道你不是一个业余的...

我可以吗?

 
你问吧!
 
Neutron >> :
你问吧!

>> ::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::.)

 
已回答。
 
Neutron >> :

我规定每一步都要重新训练网络。显然,在这种设置中,网络有时可能 "在错误的地方",但在下一步,它已经在正确的地方了。这个想法是基于这样一个事实:网络被训练成 "错误 "的概率远远小于1,所以总体而言,在大样本的再训练中,"疯孩子 "的贡献是最小的。

我不太清楚你说的 "每一步都要重新培训 "是什么意思?