"New Neural" est un projet de moteur de réseau neuronal Open Source pour la plateforme MetaTrader 5. - page 22

 
Qui a traité avec SLTM?
Long short term memory - Wikipedia, the free encyclopedia
Long short term memory - Wikipedia, the free encyclopedia
  • en.wikipedia.org
Long short term memory (LSTM) is a recurrent neural network (RNN) architecture (an artificial neural network) published1 in 1997 by Sepp Hochreiter and Jürgen Schmidhuber. Like most RNNs, an LSTM network is universal in the sense that given enough network units it can compute anything a conventional computer can compute, provided it has the...
 
gpwr:

Vous avec les liens en même temps. Je ne vous comprends pas bien. Ou sans les abréviations :) .

Et, selon moi, tout réseau de modélisation peut être un classificateur.

 
LeXpert:
Qui a traité avec SLTM?

J'allais justement demander si tous les neurones ont une structure de course fonctionnelle comme :

in*wg
  +
 ...

Je vois maintenant qu'ils ne le sont pas tous, nous devons en tenir compte et faire une variété d'algorithmes non seulement par type d'activateur mais aussi par type de neurone.

 
Mischek:
Vous essayez d'abord de formuler une opinion générale ou quasi générale sur les besoins d'un spécialiste.
Non non. Ce n'est même pas le deuxième niveau de crépuscule, c'est le troisième.
 
Mischek:
Vous essayez d'abord de formuler une opinion générale ou quasi générale sur les besoins d'un spécialiste.

Vladimir gpwr me convient personnellement, peut-être que quelques autres des siens viendront, donc pas besoin d'invitations pour le moment.

L'autre chose est que les gens sont habitués à des choses qui doivent bouger avec une horloge d'une heure, mais c'est OpenSourse, de tels projets peuvent durer beaucoup plus longtemps, parce que les gens travaillent quand il y a du temps.

 
LeXpert:
Qui a traité avec SLTM?
En quoi cela vous intéresse-t-il exactement ?
 
Urain:
En quoi cela vous intéresse-t-il exactement ?
Je ne connais pas du tout le principe. Elle n'est pas la seule, je peux poser d'autres questions :)
 
LeXpert:

Vous avec les liens en même temps. Je ne vous comprends pas bien. Ou sans les abréviations :) .

Et, selon moi, tout réseau de simulation peut être un classificateur.

SVM = Support Vector Machine

RBN = Réseau à base radiale

Voici quelques liens :

Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE

Bell, A. J., Sejnowski, T. J. (1997).
Les composantes indépendantes des scènes naturelles sont des filtres de bord.
Vis. Res., 37, 3327-3338, In.

Olshausen, B. A., Field, D. J. (1996).
Emergence des propriétés des champs réceptifs des cellules simples par l'apprentissage d'un code clairsemé pour les images naturelles.
Nature, 381(6583), 607-609.

http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf

 
TheXpert: SLTM
Je ne connais pas du tout le principe. Ce n'est pas le seul, je peux poser d'autres questions :)

Wiki dit qu'en plus des circuits habituels.

in*wg
  +
 ...

Le neurone utilise également la multiplication des entrées, et le signal de rétroaction (apparemment à partir du retard), jure également que la méthode principale BeckProP se bloque souvent lorsqu'une erreur se produit dans les cycles de rétroaction, il est donc souhaitable de faire des hybrides d'apprentissage avec GA. Les activateurs sont sur la première couche uniquement, ensuite tout est linéaire, le premier neurone (ou comité je ne comprends pas bien) transforme les entrées, les autres jouent un rôle de filtres (laissant passer ou non le signal).

Vous pouvez l'appeler un bloc neuronal ou un neurone unique avec une fonction complexe de passage, cela dépend de la façon dont vous le regardez, un réseau est construit à partir de tels blocs.

 
LeXpert:
Je ne connais pas du tout le principe. Elle n'est pas la seule, je peux poser d'autres questions :)
Tu n'es pas le seul à être comme ça.