神经网络,如何掌握它们,从哪里开始? - 页 6

 
nord >> :

但Better有非常好的结果,这意味着一些东西可以通过适当的使用而存活。

从2008年CHAMPI的结果来看,Better先生和其他CHAMPI参与者使用了NS,他们的顾问在什么地方?

正如我们在2008年看到的那样,锦标赛的领导人是任何类型的顾问,但不是那些有NS的人!他们的工作是为了让人们了解他们的工作。

这导致了另一个问题:Better`s先生在2007年被枪杀不是一个意外吗?

 
TS中的NS是一种具有冗余性的配合。
但即使是神经网络的冗余可能也不足以使其盈利。
 
TheXpert писал(а)>>

胡说八道。

在许多问题上,4层的Perspectron显示出更好的结果和收敛性。

而在一些地方,使用的是5层的。它的中间隐藏层捕捉中间数据以进行额外的分析。

顺便说一句,就这一点而言,部署的再循环网络不过是一个perseptron。而部署的非线性RNS只是一个5层的perseptron。

对于基于perseptron的复杂网络(有多个输出层和复杂链接),我暂时保持沉默。

这有点复杂。

我知道,不久前有两个定理被证明。根据第一种,三层非线性NS(由三层神经元组成,每层的输出都有非线性)是一个通用的逼近器,进一步增加层数并不增加网络功率。根据第二条定理,网络的计算能力并不取决于其神经元输出的具体非线性类型。重要的是,原则上存在非线性,具体是什么并不重要--sigmoid或arctangent。这使我们不必再试图寻找同等条件下的最佳选择。

这两个定理从根本上简化了我们对NS架构的选择,明显减少了可能的研究工作量。

此外,我们证明了历史数据的最佳训练样本长度、NS输入的维度和其突触的总数之间的明确关系,即在没有参与网络训练的数据上,预测误差最小。这使得人们可以不通过手动选择这种最佳状态来从事列宁主义。在现有的MS能力下,它明显地节省了时间和力量。

 
Andrey4-min >> :

亲爱的论坛成员,这个主题是神经网络,如何掌握它,从哪里开始?

让我们走近这个话题....

更贴近主题?没问题!从写一个神经元开始,然后把它们组合成一个网络。而先进的软件是为以后准备的。所有其他建议都是垃圾。

 
Korey >> :
TS中的NS是一个有多余的配件。

tc中的任何矩阵装置都是一种拟合。

以古代的拟合方式为例--双参数指数平滑法,一点也不比AI和NS差。

 
PraVedNiK писал(а)>>

双参数指数平滑法,不比AI和NS差。

这是正确的:双参数指数平滑并不比双输入NS差。

另一方面,在实际的NS中,我们可以自由选择输入的维度。对于价格类型的BP,典型的维度在10-100之间。在这里,要建立一个有如此多参数的穆夫是很困难的,当然也不可能在合理的时间内优化它们。为此,NS采用了错误反向传播的方法,这比测试器中的遗传算法快得多,比愚蠢的参数搜索更快。

 
与TS中的NS一起工作让我感到恐惧--我不必思考,没有必要。
即所有的担心都像对女孩一样:什么收费,什么时候喂食,什么与什么比较=某种罪过。
我已经下定决心,进行了测试,并把我的手放在裤子里(玩球)),期待着结果。
计算机工作 - 交易员rests)))),没有任何个人因素。
 
不,如果你有足够的毅力和知识,可以将理论框架与在科蒂尔上发现的规律性结合起来,那么请你--利用它来发挥你的优势吧!你会发现,在科蒂尔上发现的规律性有很多。但这种模式会持续多久呢?这些都不是力学定律,力学定律是永恒的。明天,市场趋势将发生变化,你将不得不拿着一张纸,数着...让有NS的TS来做吧。愚蠢,但铁定的。
 
Neutron >> :

...

使用反向传播方法,明显比测试器中的遗传算法快,更不用说哑巴参数枚举了。

反向传播法并不能保证找到误差函数的全局最小值,对于10-100个输入来说

在网络的输入端...实际上,目前还没有人取消网络的缩减;如果事先对主成分进行分析,两个输入就足够了,但麻烦的是,这种分析以及训练也是在历史上进行的。

 
好了,不要对自己那么苛刻。毕竟,网络有时会被重新训练(我在分析的每一个BP上都会这样做),而平均法会找到一个最小值。至于降维,不幸的是,它对像价格BPs这样的BPs不起作用,没有达到你所提出的程度。