神经网络,如何掌握它们,从哪里开始? - 页 7

 
Neutron >> :
好了,别那么苛刻了。毕竟,网络有时会被重新训练(我在被分析的BP的每一个计数上都会这样做),平均法会找到一个最小值。至于降维,不幸的是,它对像价格的BPs不起作用。

你使用的是什么时间框架?至于缩减规模,这取决于你要做什么。如果是微不足道的预处理,那么如果没有一些先验的考虑,也就是当你已经有了足够的数据,而你只是在改善结果的时候,它就不会有适当的效果。如果你用缩减规模来做其他事情,那可能是任何事情;)

 
registred писал(а)>>

你使用的是什么时间框架?

我不使用任何TF。

原因是蜡烛图被用于所有的时间段,因此由开盘价(或开盘)建立的BP比由其他方法(如切换到仪器时间等)建立的初始BP更接近于综合随机BP。

 

谢谢gpwr,arnautov!

Шаг 1: Выбираем входные данные. Например,


x1 = WPR Per1

x2 = WPR Per2

x3 = WPR Per3

我的理解是否正确,输入数据是指EA外部参数中的变量,系数将与之比较?

更贴近主题?没问题!你应该先写一个神经元,然后把它们组合成一个网络。而高级程序--那是之后的事。所有其他建议都是垃圾。

而写一个神经元,你能把它分成几个阶段吗?


怎么样?谁在主题中写道,他想用一个例子,我们可以开始吗?

第一个步骤已经向我们指出,顾问在第五页...

 
Neutron >> :

我知道不久前有两个定理被证明。

我将感谢您的推荐

根据第一条,三层非线性NS(由三层神经元组成,每层的输出都有非线性)是一个通用的近似器

嗯,这似乎很久以前就被证明了。你可以用一个3层的perseptron来近似任何函数,不管给定的精度有多小。

而进一步增加层数并不能增加网络的功率。

根据第二条定理,网络的计算能力并不取决于其神经元输出的具体非线性类型。重要的是,它(非线性)应该是原则上的,具体是什么并不重要--西格玛或正切。

我所说的是实际实验的结果。至于非线性的问题...你必须先熟悉这些定理。

此外,它还证明了历史数据的最佳训练样本长度、NS输入的维度和其突触的总数之间的明确关系,即在未参与网络训练的数据上预测误差最小。这使得人们可以不通过手动选择这种最佳状态来从事列宁主义。凭借现有的MS能力,这可以节省大量的时间和精力。

你是指可调整参数的数量吗?阈值也包括在内。顺便说一下,如果有文件证明,也会有帮助。而那些开始与神经网络打交道的人熟悉这些材料也不会有什么损失。

 
Andrey4-min >> :

而写一个神经元,你能把它分解成几个步骤吗?

最好是用面向对象的语言来写。


写NS时,神经元是一个太浅的概念。

一个层是相同的神经元的联合体,所以单独考虑一个神经元是没有意义的。


我在我的库中只使用了2种类型的抽象--层和权重。


砝码是连接2层的突触块。

一个层有一个输入缓冲区,一个输出缓冲区和一个误差缓冲区,以及一个激活函数。突触是一个二维数组,将该层的输出缓冲区与输入缓冲区连接起来,具体如下。

一个网络是一组层和它们之间的链接。任何在错误缓冲区有非零信号的层都可以被认为是输出层。

 
TheXpert писал(а)>>

嗯,这在很久以前就被证明了。一个3层的Perspectron可以以任何小的给定精度 近似任何函数。

错误,而不是精确。

如果这一点很清楚,那么所有这些复杂的事情又有什么意义。

TheXpert 写道>>

在许多问题上,4层perseptron显示出更好的结果和收敛性。

而在一些地方则使用了5层。至于基于perseptron的复杂网络(有多个输出层和复杂链接),我暂时不谈这部分。

你是指可调整参数的数量吗?阈值也包括在内。顺便说一下,把它们记录下来也会有帮助。而那些开始从事神经网络的人,最好能熟悉一下这些材料。

是的,我指的是NS中的权重数量以及它们与输入数量和训练样本的最佳长度的关系。这种关系的推导在附在附件中的文章第64-65页给出。64-65.简而言之,如果NS的权重数为w, 输入数为 d,训练样本长度为P,在最佳状态下,必须满足以下条件:P=(w^2)/d

定理的参考文献我以后会给出--我需要找到它们。

附加的文件:
yvtwslxtn.zip  1592 kb
 
Neutron >> :

按误差率计算,而不是按准确性计算。

是的。

如果这一点很清楚,那么为什么会如此复杂。

这很简单,当增加一个层或改变架构只需点击几下鼠标或几行代码就能完成时,那么这些复杂的东西就变成了有趣的附加物。

是的,我的意思是NS中的权重数量与输入的数量和训练样本的最佳长度有关。该关系的推导在附件中的文章中给出,该文章在第1页。64-65.

>> 谢谢你。那么,该定理的证明呢?或者至少是准确的措辞?

 

任何非线性神经元函数的适用性定理是由前苏联,以及自20世纪80年代末以来的美国数学家Vladik Kreynovich[1]证明的,并发表在西方领先的神经网络期刊之一。

1.Kreinovich V.Y.任意非线性足以用神经网络表示所有的函数:一个定理/神经网络,1991,Vol.4,№3。- pp.381-383。

P.S. 关于3层的充分性--以后再说。

 

我在Gorban A.N.的文章《......》中看到了3层的充分性证明--我找不到。

充分性的证明在下面所附的第39页的文章中。

附加的文件:
esibfjnus.zip  967 kb
 
这似乎与科尔莫戈罗夫证明的定理有某种联系,即任何数量的变量的函数都可以用两个变量的函数来准确表达。我可能没有准确表达,但在关于NS的文章中经常提到。