"新神经 "是MetaTrader 5平台的一个开源神经网络引擎项目。 - 页 22

 
谁曾与SLTM 打过交道?
Long short term memory - Wikipedia, the free encyclopedia
Long short term memory - Wikipedia, the free encyclopedia
  • en.wikipedia.org
Long short term memory (LSTM) is a recurrent neural network (RNN) architecture (an artificial neural network) published1 in 1997 by Sepp Hochreiter and Jürgen Schmidhuber. Like most RNNs, an LSTM network is universal in the sense that given enough network units it can compute anything a conventional computer can compute, provided it has the...
 
gpwr:

你与链接在一次。我并不完全理解你。或者不使用缩略语 :) 。

而且,我认为任何建模网络都可以成为一个分类器。

 
TheXpert
谁与SLTM 打交道?

这里只是想问一下,是否所有的神经元都有一个工作行程结构,如。

in*wg
  +
 ...

现在我看到,并不是所有的人,我们需要考虑到这一点,不仅要按激活器类型,还要按神经元类型做出各种算法。

 
米切克
你首先尝试对专家的要求形成一个一般或几乎一般的意见
不,不。这还不是黄昏的第二层,是第三层。
 
米切克
你首先尝试对专家的要求形成一个一般或几乎一般的意见

Vladimirgpwr 适合我个人,也许还会有几个他自己的人出现,所以还不需要邀请。

另一件事是,人们习惯于按小时计算的事情,但这是OpenSourse,这样的项目可以持续更长的时间,因为人们在有时间的情况下工作。

 
TheXpert
谁曾与SLTM 打过交道?
你到底为什么对它感兴趣?
 
Urain
你到底为什么对它感兴趣?
完全不熟悉这个原理。她不是唯一的人,我可以问更多的问题 :)
 
TheXpert

你与链接在一次。我并不完全理解你。或者不使用缩略语 :) 。

而且,我认为任何模拟网络都可以成为一个分类器。

SVM = 支持向量机

RBN = 径向基线网络

这里有一些链接。

Т.Serre, "用类似皮层的机制进行鲁棒性物体识别",IEEE模式分析和机器智能大会。

Bell, A. J., Sejnowski, T. J. (1997).
自然场景的独立成分是边缘过滤器。
Vis. Res., 37, 3327-3338, In.

Olshausen, B.A., Field, D.J.(1996).
通过学习自然图像的稀疏代码,出现了简单细胞的接受场特性。
自然》, 381(6583), 607-609.

http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf

 
TheXpert:SLTM
完全不熟悉这个原理。她不是唯一的人,我可以问更多的问题 :)

维基说,除了通常的电路之外。

in*wg
  +
 ...

该神经元还使用了输入乘法,和反馈信号(显然是来自延迟),还发誓主要的BeckProp方法在反馈中出现错误循环时经常被卡住,所以最好能与GA做混合学习。激活器只在第一层,然后一切都是线性的,第一个神经元(或我不太明白的委员会)对输入进行转换,其他神经元扮演过滤器的角色(允许或不允许信号通过)。

你可以称它为神经块或具有复杂传递功能的单个神经元,这取决于你如何看待它,一个网络是由这样的块构建而成的。

 
TheXpert
完全不熟悉这个原理。她不是唯一的人,我可以问更多的问题 :)
你不是唯一一个这样的人。