神经网络,如何掌握它们,从哪里开始? - 页 12

 
Neutron >> :

无论你如何旋转NS,无论你在它的输入中放了什么,肯定没有奇迹!"。

因此,我们得到的结果是:一方面,NS的层数越多,其预测能力越高,但建立超过三层是毫无意义的--三层网格已经是一个通用的近似器。

一般来说,不,我不打算争论--我很无聊。

由此可见,NS的分层越多,其训练样本的时间就越长。不仅训练的复杂度以P^3的形式增长,而且我们还可能耗尽数据!


这是我第二次看到这个学位。让我们来算一算。


让我们以一个网络m - n - k为例 -- 这些字母分别代表输入、隐藏和输出层的神经元数量。

对于完全耦合的突触,信号传播的复杂性是O(m*n + n*k)。

背面传播的复杂性也是如此。

现在让我们引入一个相同大小的额外隐藏层。

复杂度为O(m*n + n*n + n*k)。

让我们采取比率 -- 我们得到(m + n + k)/(m + k)。


此外,第2个隐藏层的引入允许你专门减少第1层的大小。

为此,我在Mathcad中制作了三个网格--1、2和3,并比较了提前一个计数的cotier增量的预测结果(我收集了100个独立实验的统计数据)。结果如下。

1-p=10%正确猜到的标志(概率=1/2+p)。

2 - 15-16%

3 - 12%

这里有一些自由参数:输入的尺寸和层中的神经元数量。第一个参数对所有架构都是一样的,第二个参数是个人选择的。我们看到,3层NS网格并不是万能的,也许对我们这些交易员来说,MTS分析块的最佳选择是两层网格--从最大预测精度和对训练复杂性的最低要求的角度来看(RS的功率、大历史及其不增长)。

现在是时候考虑分形NS与分形层数的问题了:)) 。2.5将是恰到好处的。

 

掌握NS技术的假设方法
步骤1。

在NS中建立一个有一个买入/卖出输出的NS,用Close[x]喂它,看图表,看到--网格是有噪音的!
第二步。

现在,我们喂养的东西比最初的报价更平稳,但无论如何,NS是嘈杂的。
为什么?因为老师是不均匀的。我太懒了,不能用手做。(这里你需要一个螺旋器)
步骤3。

阅读Reshetov的文章,发送NS,在测试器中训练,并注意到--没有明确定义任何错误函数。
因此,战略测试员 发出隆隆声,开发人员发出呼噜声,说雷舍托夫很聪明,他想出了这一切,发明了一个真正的老师。
然而,雷舍托夫是个聪明人,但我的电脑在MT-4上不好用,那么MT-5在哪里呢?
而对于4个输入,这个 "NS "又很吵。现在,历史数据变成了不均匀的--它包含了不同类型的市场,我们不知道是哪一种)
.... 我们在循环中重复步骤1-3。
步骤4。

我们意识到我们被卡住了--我们不能增长网络,MQL很慢,而且神经路径训练离交易还有点远。
步骤5。

思考在一个十字路口 - 现在我们已经开始与NS合作,我们知道NS不是那么多的数学。作为技术,
,可以通过NS交易员保存,它有一个更好的测试器。
好和。
这一切是为了什么?
第六步

如果我们发明了一个网络并对其进行训练,在这个过程中,我们真正需要的东西会变得更加清晰,真正的东西是在没有NS的情况下进行的,
,根本不需要NS。
,事实证明
,NS只是在你向一个哑巴解释的时候需要了解可以解释的东西))

 
TheXpert писал(а)>>

让我们来算一算。

在我发布的文章存档的主题第7页,有一个对训练复杂性的估计(第65-66页):C=P*w^2=d*P^2=(w^4)/d,这表明我稍微搞砸了(有点怀孕),复杂性与d*P^2或通过突触的数量成正比:(w^4)/d

另外,引入第2个隐藏层可以专门减少第1层的大小。

这是从哪里来的?
 
Neutron >> :
它从哪里来?

如果不是严格意义上的,则是间接地从可调参数的数量上看。严格意义上的尼亚希尔。我不善于证明。

如果我再加上我自己的想法,实际上我有一段时间认为perseptron的最佳收敛非线性速度结构是人字形,但我还没有检查。

等我有机会了,我就会画出来。


一些新年的想法:))。

 
Korey писал(а)>>
>>))在他向她解释的时候,他应该明白他在解释什么。)

有一个重要的观点你不想说--你必须解释一次NS(你也会理解它,正如你正确指出的那样),然后,像车床一样,它将在变化的世界上工作(cotier),而不在乎你是否完全理解它的意思!"。

TheXpert 写道>>

人字形结构--人字形

你在抽什么烟?

哦,我明白了!嗯,它看起来确实像一棵圣诞树。我在直觉层面上也有同样的事情。

 
Neutron >> :

...

这是从哪里来的?

阅读 haykin -------> 点 4.15. 网络简化方法

 

你采取哪种算法来学习并没有任何区别。其结果是一样的)。你不必去挖掘神经网络,你必须寻找输入。

 
PraVedNiK писал(а)>>

阅读 haykin -------> 点 4.15. 网络简化方法

没问题。>> 我们来读一读!

 

斯普鲁斯!直觉与此无关,NS是一个金字塔式编码器,+它与FFT类似。
例如,基于金字塔编码器模型,计算最小的神经元数量是很简单的。

即金字塔式编码器是设计的 NS的最小覆盖率。

 
Neutron >> :

你在抽什么烟?

辞职吧 :)

哦,我明白了!嗯,它看起来确实像一棵圣诞树。我在直觉上得到了同样的东西。