市场礼仪或雷区中的良好风度 - 页 58

 
gpwr >> :

我想你又误解了我的意思。

我真的不明白你要如何影响这个多项式的系数,以便找到全局最小误差(即学习)。我给你看一下训练后的神经元的权重。


在同一载体上进行了三次实验。最右边的经验是最成功的。也就是说,我明白,有了一个现成的拓扑结构,挑选这样一个多项式并不困难(理论上),它可以很好地平滑这个拓扑结构,但请解释一下,你要如何为一个未经训练的人计算这个拓扑结构(已经训练过的网格)?换句话说--影响kf的算法是什么,导致了学习误差函数的减少?你认识它吗?

 
Neutron >> :

特别为你而建。

你可以清楚地看到,FZ始终存在,并在科蒂尔的剧烈运动上直观可见。

谢尔盖,我不会再和你讨论这个话题,因为它是微不足道的,完全没有用。学习数学,下次你想出下一个超级绝妙的想法时,为了实施这个想法,你认为需要一两个研究机构和一个PC集群,你想一下--也许你只是不知道或不理解。毕竟,这比 "划时代的发现 "更有可能,在你之前长期践踏一切的地方。


好吧,考虑到相位延迟(这是一个术语)存在于两种情况下



坦率地说,而你让我感到厌烦 :o)

 
HideYourRichess >> :

我很惊讶地看到,有一种算法能很好地证明这一点。我正在寻找一个错误。它看起来非常简单。它并不像那样工作。

如果我不是一个数学家,得到了正确的答案也不奇怪,那么对一个专业人员来说又有什么可说的呢!?:о)))

 

中子


高/低点和收盘之间是否有相位延迟?:о)))所以,根据你的视觉方法,有一个。




它能从哪里来?


纠正和补充:只要没有人在看,我就会做一些小的纠正。我在匆忙中犯了一个小错误,在-张图片上面的打开和关闭。一个信号相对于另一个信号是延迟的,但在这个特定的情况下,它不是一个相移。


没有相位延迟。没有执行 会导致转变的数学运算。不存在突然出现的相位转移。相反,有一个过程选择,一个说 "这就是过程 "的规则。


如果 "转变 "是以 "开放 "为先,"关闭 "为后来考虑的,那么是的--有一个 "转变"(我不打算反对这一点)。 但我甚至不知道哪种数学方法能在这种特定情况下 "找到 "转变。 这些信号是相互替代的。




而要选择Close进行预测,就必须要有一个精确到令人难以置信的系统。而对于我这个简单的想法,顺便说一下,它是非常 "机器人 "的,没有延迟(H+L)/2会有任何影响。


PS:天啊,Seryoga Seryoga,--这些过程是单开的,绝对的。现在就这样了,再见。祝好运

 

对中子

当我在等待新的马特卡德时,我正在重复我所学到的东西,也就是说,我正在乱用单层。你让我显示错误矢量的长度,这就是我得到的结果。


X统计数字,L长度(如果我没记错的话)。

这样计算的。


这里i 是统计学上的循环 X 是输入向量(在当前训练向量的整个长度上求和)。误差平方与训练向量的平方一起在整个历时中累积。


而在一个纪元结束时,其计算方法如下。


这里的n 是跨纪元的周期。

一切都做得正确吗?

 

从图中判断,某处有一个错误--我们应该看到网络的逐步学习(错误向量长度减少),因为我们从一个历时到另一个历时。这是不可见的。原因和以往一样,可能是一辆马车和一辆小推车。例如,图中显示的是已经训练好的网络(最后一个epoch)的误差向量大小与独立实验数的关系,而不是从epoch开始的误差向量大小...。从你的--"通过X统计......"--什么统计?我们又不应该在这里打字。还有这个--"...由L长度", - L是归一化的数据向量的长度,必须位于1附近,在圆周的末端逐渐减少...我们看到不同的东西。

在这里,看看它应该是什么样子的。

这里,蓝色的显示了训练样本上的误差向量的长度(我们看的是网格是如何训练的,而不是如何预测的)。总而言之,为了清楚起见,我们使用了200个训练历时和k=1,以表明在这种特殊情况下,网是完全训练好的(误差为零),只是用心学习训练样本。它甚至更快。问题是,在有这种权重的测试样本上,我们的加法器将显示非洲的天气,即它完全被剥夺了概括能力。图中的红线显示的是一系列实验(n=50)的方差(离散性),而蓝线显示的是平均数(我确实在编制统计数据,但与你的方式不同,我后面会讲到)。

你的最后两个表达式几乎是正确的,除了不应该有一个关于统计的索引(你只做一个实验,你需要一个新的代码,没有一组统计),而且我不理解第一个方程式。它是从哪里来的?我有一个类似的街区,看起来像这样。

其中j, 是对训练向量的循环。请注意,当指数为平方时,我的指数明显变小了!

顺便说一下,我放弃了使用挤压函数来计算权重,先是单层,然后是双层。没有它,结果也一样好,而且麻烦也少。

 
grasn >> :

如果我这个不是数学家的人得到了它,也就不奇怪了,所以谈不上什么专业!:о)))


弄明白了。我所做的可以被认为是AR的原始版本,或者反过来说,AR可以被认为是我所做的的改进版本。

 
Neutron >> :

你的后两个表达式几乎是正确的,除了在统计数据上不应该有索引(你只做一个实验,你需要新的代码,没有一组统计数据),但我不明白第一个方程。它是从哪里来的?我有一个类似的街区,看起来像这样。

其中j,是对训练向量的循环。请注意,当指数为平方时,我的指数明显变小了!

顺便说一下,我放弃了使用挤压函数来计算权重,先是单层,然后是双层。没有它,结果也一样好,而且麻烦也少。

第一个方程是计算误差向量的长度,并将其归一化为数据向量的长度(也就是我目前理解的方式),原因可能是我真的需要没有统计集的新代码。我现在就去做。

至于压缩功能,它没有直接对我起作用(也就是说,结果并不明显),所以我没有使用它。

 
paralocus писал(а)>>

第一个方程是计算误差向量的长度,并通过数据向量的长度将其归一化(也就是我目前理解的方法)

那么最后两个表达式代表什么?

我以为第二个是找矢量长度的平方,第三个是找归一化长度。如果是这样,为什么是第一个表达?

 
HideYourRichess >> :

我已经搞清楚了。我所做的可以被认为是AR的原始版本,或者反过来说,AR可以被认为是我所做的改进版本。

我没有包括模型识别,即样本长度和模型顺序的最佳定义。有了这些,我认为有可能达到90%。我一点也不怀疑你的结果会一样好,甚至更好。;)