"New Neural" è un progetto di motore di rete neurale Open Source per la piattaforma MetaTrader 5. - pagina 22

 
Chi ha avuto a che fare con SLTM?
Long short term memory - Wikipedia, the free encyclopedia
Long short term memory - Wikipedia, the free encyclopedia
  • en.wikipedia.org
Long short term memory (LSTM) is a recurrent neural network (RNN) architecture (an artificial neural network) published1 in 1997 by Sepp Hochreiter and Jürgen Schmidhuber. Like most RNNs, an LSTM network is universal in the sense that given enough network units it can compute anything a conventional computer can compute, provided it has the...
 
gpwr:

Voi con i link in una volta. Non ti capisco del tutto. O senza le abbreviazioni :) .

E imho qualsiasi rete di modellazione può essere un classificatore.

 
TheXpert:
Chi si è occupato di SLTM?

Qui stava solo per chiedere se tutti i neuroni hanno una struttura di corsa funzionante come:

in*wg
  +
 ...

Ora vedo che non tutti, dobbiamo tenerne conto e fare una varietà di algoritmi non solo per tipo di attivatore ma anche per tipo di neurone.

 
Mischek:
Si cerca prima di tutto di formulare un'opinione generale o quasi sui requisiti di uno specialista
No, no. Non è nemmeno il secondo livello del crepuscolo, è il terzo.
 
Mischek:
Si cerca prima di tutto di formulare un'opinione generale o quasi sui requisiti di uno specialista

Vladimir gpwr mi soddisfa personalmente, forse un paio di altri dei suoi arriveranno, quindi non c'è bisogno di inviti per ora.

L'altra cosa è che la gente è abituata a cose che dovrebbero muoversi con un orologio di un'ora, ma questo è OpenSourse, tali progetti possono durare molto più a lungo, perché la gente lavora quando c'è tempo.

 
TheXpert:
Chi ha avuto a che fare con SLTM?
Perché esattamente le interessa?
 
Urain:
Perché esattamente ti interessa?
Non conosco affatto il principio. Non è l'unica, posso fare altre domande :)
 
TheXpert:

Voi con i link in una volta. Non ti capisco del tutto. O senza le abbreviazioni :) .

E imho qualsiasi rete di simulazione può essere un classificatore.

SVM = Macchina vettoriale di supporto

RBN = Rete a base radiale

Ecco alcuni link:

Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE

Bell, A. J., Sejnowski, T. J. (1997).
I componenti indipendenti delle scene naturali sono filtri di bordo.
Vis. Res., 37, 3327-3338, In.

Olshausen, B. A., Field, D. J. (1996).
Emersione delle proprietà del campo recettivo delle cellule semplici con l'apprendimento di un codice sparso per le immagini naturali.
Natura, 381(6583), 607-609.

http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf

 
TheXpert: SLTM
Non conosco affatto il principio. Non è l'unico, posso fare altre domande :)

Wiki dice che oltre al solito circuito.

in*wg
  +
 ...

Il neurone utilizza anche la moltiplicazione degli ingressi, e il segnale di feedback (apparentemente da ritardo), giura anche che il metodo principale BeckProP spesso si blocca quando un errore cicli in feedback, quindi è auspicabile fare ibridi di apprendimento con GA. Gli attivatori sono solo sul primo strato, poi tutto è lineare, il primo neurone (o comitato che non capisco bene) trasforma gli input, gli altri svolgono un ruolo di filtri (permettendo o meno il passaggio del segnale).

Si può chiamare un blocco neurale o un singolo neurone con una funzione complessa di passaggio, dipende da come lo si guarda, una rete è costruita da tali blocchi.

 
TheXpert:
Non conosco affatto il principio. Non è l'unica, posso fare altre domande :)
Non sei l'unico ad essere così.