市场礼仪或雷区中的良好风度 - 页 26

 

我会休息一段时间 -:)

我们应该去图书馆...

 
registred писал(а)>>

我不太清楚你说的 "每一步的再培训 "是什么意思?

我只用NS进行预测,为一个数前进。然后,为了不失去预测的准确性,我使用新的输入数据重新训练网络,等等。在这种情况下,你不能 "从头开始 "重新训练网格,而是保留旧的权重值作为新的倒计时的起始值。

这正是我所想的。

 

中子,当我从振幅预测到符号预测时,事实证明,网格输出的误差是符号的误差。也就是说,误差的值为+1或-1。

我对这一点的理解是否正确?如果没有,怎么做?

 
Neutron >> :

我只用NS做了一个向前的预测。然后,为了保持预测的准确性,我使用新的输入数据重新训练网格,等等。在这种情况下,你不能 "从头开始 "重新训练网格,而是保留旧的权重值作为新的倒计时的起始值。

这正是我所想的。

我不知道一个平坦的-网络是否会改变预测的前景?

 
Jingo писал(а)>>

我想知道它是否是一个平面--网络会改变预测的前景吗?

嗯,当然是这样!它在本质上是适应性的。

然后,事实上,扁平化与趋势是一样的,只是更小...因此,你的问题归结为国家安全局对新的/改变的贸易视野的适应。这是她的直接责任。当我重新训练时,我在一个已经 "新 "的市场中使用 "旧 "的权重值--这并没有破坏这个过程本身,甚至相反。问题是,改变(确切地说是改变)趋势的过程是准稳定的,因此,所选择的战术是合理的。

paralocus 写道>>

中子,当我从振幅预测切换到符号预测时,结果发现网格输出的误差是一个符号误差。即误差的数值为+1或-1。

我对这一点的理解是否正确?如果不是,是什么呢?

不,你不是。

训练网络的过程与经典案例没有区别,不同的是,在隐蔽层神经元的输入端,你给出一个二进制信号,而输出是一个实数,在区间[-1,1]上确定(在输出神经元th()激活的情况下),并与事件发生的概率成正比(网络的确定性在预期增量的标志)。如果你对概率不感兴趣,而只对预期的子午线运动的符号感兴趣,那么就只解释预测的符号,但在实数上训练网络(我是说ORO方法的误差必须是实数)。与一般情况相比,用这种方法的学习率增加,这并不是一个悖论。事实上,通过给出输入的二进制信号,我们大大降低了输入特征空间的维度,而NS应该在其中进行训练。比较:+/-或从-1到1,增量为0.001,每个值都必须放在维度为d (输入数)的超表面上,之前通过相同的NS构建它(它在训练期间会这样做)。

 
Neutron >> :

...你给隐藏层的神经元输入一个二进制信号,输出是一个定义在区间[-1,1]上的实值。

就这样吧!我甚至不会想到这一点!>> 我现在就去试试吧)。

 

...比较:+/-或从-1.到1,步长为0.001,每个值都必须放在维度为d (输入数)的超表面上,之前已经通过相同的NS构建了超表面(它在训练期间做了这个)。


如果输入是一个二进制信号,把它变成0/1不是更好吗?

 

当然不是!

你的这种 "输入 "的重心被转移了0.5(它的MO),而输入在初始化时的MO=0。所以,你得把部分资源花在神经元的单一输入的空拉升(调整权重)上,以适应明显的事情。一般来说,凡是能独立完成的,没有AI参与的,都应该做。这为国家统计局节省了大量的学习时间。正是为了这个目的,输入被归一化、居中化和白化。所有这些,都是为了不以琐事分散人工智能的注意力,而是集中精力研究最重要和最困难的问题--非线性多变量相关和 相关。

 

是的,我知道。

我目前正在调整我的两层自学习perseptron。希望今天能启动并运行。

 
paralocus писал(а)>>

希望它能在今天之前启动并运行。

不要抱太大希望 :-)

根据我的经验,在它真正发挥作用之前,你会准备好再说20-25次同样的话。