市场礼仪或雷区中的良好风度 - 页 15

 
Neutron >> :

你可以自己在文献中查找这些公式,互联网上有很多这样的文献。

我们不要太草率。也不要试图用各种计谋使你的生活复杂化,如 "非线性学习 "等,那是来自邪恶者的。在简单与和谐中体现出美丽与可靠!

拯救和怜悯...

 
:-)
 
Neutron >> :

让我们慢慢来吧。也不要试图用 "非线性学习 "之类的各种臆想来使你的生活复杂化。在简单与和谐中体现出美丽与可靠!

Ы?这是一个经典。总之,我让你去做吧。

 
Neutron >> :

你有一个长度为n个样本的输入信号向量(让它是一维的),让n+1个样本来测试网络的训练质量。你给它这个向量(n个样本),将所有权重等同于均匀概率密度分布的+/-1范围内的随机值,然后看看网格的输出结果。假设你设置了+5.1,并检查n+1计数(训练向量上的训练网格应该追求的值)+1.1。然后你取得到的值和期望的+4之间的差值,并把这个值,保持其符号加到输出神经元的每个权重上(如果它没有FA),或从这个值中找到FA的导数,并把它加到输入神经元的权重上(如果它有FA)。以此类推。

如果你消化了这一块,我会告诉你如何将误差进一步推到第一层(输入)的输入权重。

1.按照我的理解,电网必须有两种运行模式:1--学习,2--识别,这些模式是不兼容的,也就是说,电网在任何时候都处于其中之一。


2.一个长度为n的输入信号向量,例如,一个数组V[n,3](对于有三个输入的网格)是n个柱子上的RSI值 - 对吗?那么n+1计数就是n+1条的相同RSI。在这种情况下,我训练网格来预测RSI的未来行为,基于它以前的行为。

如果是这样的话,权重都是清楚的,直到我需要对非光滑的FA函数进行导数。 ( 我的意思是,我只是还不知道如何做......也许只是取两个相邻的FA(RSI(i))点之间的角度系数。?嗯,好吧,这是一个技术问题--会解决的)。

 
paralocus писал(а)>>

1.按照我的理解,电网必须有两种运行模式:1--学习,2--识别,这些模式是不兼容的,也就是说,电网在任何时候都处于其中之一。

2.一个长度为n的输入信号向量,例如,一个数组V[n,3](对于有三个输入的网格)是n个柱子上的RSI值 - 对吗?那么n+1计数就是n+1条的相同RSI。在这种情况下,我训练网格来预测RSI的未来行为,基于它以前的行为。

如果是这样的话,权重都是清楚的,直到我需要对非光滑的FA函数进行导数。 ( 我的意思是,我只是还不知道如何做......也许只是取两个相邻的FA(RSI(i))点之间的角度系数。?嗯,好的,这是一个技术问题--会解决的)。

这在F.Wasserman.Neurocomputing - Theory and Practice中得到了很好的解释。

 
Vinin >> :

在F. Wasserman, Neurocomputing - Theory and Practice中得到了很好的解释。

是的,谢谢,我找到了一个。

 
paralocus писал(а)>>

1.按照我的理解,电网必须有两种运行模式:1--学习,2--识别,这些模式是不兼容的,也就是说,电网在任何时候都处于其中之一。

2.一个长度为n的输入信号向量,例如,一个数组V[n,3](对于有三个输入的网格)是n个柱子上的RSI值 - 对吗?那么n+1计数就是n+1条的相同RSI。在这种情况下,我训练网格来预测RSI的未来行为,基于它以前的行为。

如果是这样的话,权重都是清楚的,直到我需要对非光滑的FA函数进行导数。 ( 我的意思是,我只是还不知道如何做......也许只是取两个相邻的FA(RSI(i))点之间的角度系数。?嗯,好的,这是一个技术问题--会解决的)。

1.随着新数据的到来,网格在新的训练向量上进行训练,训练后立即产生一个提前1步的预测,如此反复,直到无穷大。也就是说,这是一个在每个步骤中对NS进行额外培训的问题。

2.有三个输入的网格读取三个最后的向量长度为n+1+3的读数,并通过顺序一步移全部n次对其进行训练。

衍生品没有任何问题。如果我们用双曲正切FA=th(x)作为FA,那么我们就没有问题从它那里找到导数,dFA=1-th(x)^2,这个神经元输入端的修正权重将是:dw=delta*(1-th(s)^2),其中delta是网格输出和样本的实际值之间的误差,s是网格输出。

 
Neutron >> :

1.随着新数据的到来,网格在新的训练向量上进行训练,训练后立即产生一个提前1步的预测,如此反复,直到无穷大。也就是说,我们讲的是在每个步骤中对NS的额外培训。

2.有三个输入的网格读取三个最后的向量长度为n+1+3的读数,并通过顺序一步移全部n次对其进行训练。

衍生品没有任何问题。如果我们使用双曲正切FA=th(x),那么我们就没有问题从它那里找到导数dFA=1-th(x)^2,这个神经元输入的修正权重将是:dw=delta*(1-th(s)^2),其中delta是网格输出和样本的实际值之间的误差,s是网格输出。

就这样吧!所以没有必要重新培训她。哦,好极了!

2.一个有三个输入的网格,读取一个长度为n+1+3的向量的最后三个样本,并通过依次移位一步的方式对其进行训练,所有n次都是如此。


我一定是在这里说错话了。不是一个有三个输入的网格,而是一个有三个突触的神经元,每个突触都接受一个输入信号。

1synaps - th(RSI(i))

2synaps - th(RSI(i+dt))

3synaps - th(RSI(i+td*2))

1.我们用随机值(-/+1)初始化突触的权重,这很有意义--只有三个突触。

2.然后,我们需要用输入信号的n个样本来喂养每个输入端,也就是之前n个小节上的输入信号序列。

3.然后在第n条上输出神经元,并与输入信号的n+1值进行比较,如果神经元的输出没有FA,则应将差值(误差)连同其符号添加到每个权重中。

如果输出是来自FA,我们将误差乘以来自FA的谨慎(在第n条)加入到权重中。

4.向前移动一个小节(第n+1个变成第n个),重复步骤2至4。


问题。

1. n = k*w*w/d ?

2.要计算误差值,一定要从网格输出值中减去测试次数?

 

是的!

然后让我们转到学习的时代。将有10到1000个,取决于目标和手段,我们将更详细地触及如何形成一个权重校正的向量(事实上它在一个历时内是换算的),其长度等于长度为 n-计数 的样本上的突触数量w

简而言之,先别费心。

 
Neutron >> :

是的!

然后让我们转到学习的时代。将有10到1000个,取决于目标和手段,我们将更详细地触及如何形成一个权重校正的向量(事实上它在一个历时内是换算的),其长度等于长度为n-计数的样本上的突触数量w。

简而言之,现在还不要太兴奋。

中子,我需要短暂的休息。我必须再次重新思考一切,至少为一个神经元把它变成代码。总之,一两天后,我们将继续。

我非常感谢你!