O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 22

 
Quem já lidou com o SLTM?
Long short term memory - Wikipedia, the free encyclopedia
Long short term memory - Wikipedia, the free encyclopedia
  • en.wikipedia.org
Long short term memory (LSTM) is a recurrent neural network (RNN) architecture (an artificial neural network) published1 in 1997 by Sepp Hochreiter and Jürgen Schmidhuber. Like most RNNs, an LSTM network is universal in the sense that given enough network units it can compute anything a conventional computer can compute, provided it has the...
 
gpwr:

Você com os links de uma só vez. Não te entendo completamente. Ou sem as abreviaturas :) .

E imho qualquer rede de modelação pode ser um classificador.

 
TheXpert:
Quem lidou com o SLTM?

Aqui só ia perguntar se todos os neurónios têm uma estrutura de AVC a funcionar como:

in*wg
  +
 ...

Agora vejo que nem todos eles, precisamos levar isso em conta e fazer uma variedade de algoritmos não só por tipo de ativador, mas também por tipo de neurônio.

 
Mischek:
Primeiro tente formular uma opinião geral ou quase geral sobre os requisitos para um especialista
Não, não. Isso nem sequer é o segundo nível do crepúsculo, é o terceiro.
 
Mischek:
Primeiro tente formular uma opinião geral ou quase geral sobre os requisitos para um especialista

Vladimir gpwr me convém pessoalmente, talvez mais um par dele venha junto, então não há necessidade de convites ainda.

A outra coisa é que as pessoas estão acostumadas com coisas que devem se mover por hora, mas isto é OpenSourse, tais projetos podem durar muito mais, porque as pessoas trabalham quando há tempo.

 
TheXpert:
Quem já lidou com o SLTM?
Porque é que estás interessado nisso?
 
Urain:
Porque é que estás interessado nisso?
Não estou nada familiarizado com o princípio. Ela não é a única, eu posso fazer mais perguntas :)
 
TheXpert:

Você com os links de uma só vez. Não te entendo completamente. Ou sem as abreviaturas :) .

E imho qualquer rede de simulação pode ser um classificador.

SVM = Máquina Vetorial de Suporte

RBN = Rede de Base Radial

Aqui estão alguns links:

Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE

Bell, A. J., Sejnowski, T. J. (1997).
Os componentes independentes das cenas naturais são filtros de borda.
Vis. Res., 37, 3327-3338, In.

Olshausen, B. A., Field, D. J. (1996).
Emergência de propriedades de campo receptivas a células simples através da aprendizagem de um código esparso para imagens naturais.
Natureza, 381(6583), 607-609.

http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf

 
TheXpert: SLTM
Não estou nada familiarizado com o princípio. Ela não é a única, eu posso fazer mais perguntas :)

Wiki diz que, além dos circuitos habituais.

in*wg
  +
 ...

O neurônio também usa multiplicação de entradas, e sinal de feedback (aparentemente de atraso), também jura que o principal método BeckProp muitas vezes fica preso quando um ciclo de erro em feedbacks, então é desejável fazer híbridos de aprendizagem com AG. Os ativadores estão apenas na primeira camada, depois tudo é linear, o primeiro neurônio (ou comitê que realmente não entendo) transforma as entradas, outros desempenham um papel de filtros (permitindo ou não a passagem do sinal).

Você pode chamá-lo de bloco neural ou um único neurônio com uma função complexa de passagem, depende de como você olha para ele, uma rede é construída a partir de tais blocos.

 
TheXpert:
Não estou nada familiarizado com o princípio. Ela não é a única, eu posso fazer mais perguntas :)
Você não é o único que é assim.