"New Neural" è un progetto di motore di rete neurale Open Source per la piattaforma MetaTrader 5. - pagina 22
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Voi con i link in una volta. Non ti capisco del tutto. O senza le abbreviazioni :) .
E imho qualsiasi rete di modellazione può essere un classificatore.
Chi si è occupato di SLTM?
Qui stava solo per chiedere se tutti i neuroni hanno una struttura di corsa funzionante come:
Ora vedo che non tutti, dobbiamo tenerne conto e fare una varietà di algoritmi non solo per tipo di attivatore ma anche per tipo di neurone.
Si cerca prima di tutto di formulare un'opinione generale o quasi sui requisiti di uno specialista
Si cerca prima di tutto di formulare un'opinione generale o quasi sui requisiti di uno specialista
Vladimir gpwr mi soddisfa personalmente, forse un paio di altri dei suoi arriveranno, quindi non c'è bisogno di inviti per ora.
L'altra cosa è che la gente è abituata a cose che dovrebbero muoversi con un orologio di un'ora, ma questo è OpenSourse, tali progetti possono durare molto più a lungo, perché la gente lavora quando c'è tempo.
Chi ha avuto a che fare con SLTM?
Perché esattamente ti interessa?
Voi con i link in una volta. Non ti capisco del tutto. O senza le abbreviazioni :) .
E imho qualsiasi rete di simulazione può essere un classificatore.
SVM = Macchina vettoriale di supporto
RBN = Rete a base radiale
Ecco alcuni link:
Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE
Bell, A. J., Sejnowski, T. J. (1997).
I componenti indipendenti delle scene naturali sono filtri di bordo.
Vis. Res., 37, 3327-3338, In.
Olshausen, B. A., Field, D. J. (1996).
Emersione delle proprietà del campo recettivo delle cellule semplici con l'apprendimento di un codice sparso per le immagini naturali.
Natura, 381(6583), 607-609.
http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf
Non conosco affatto il principio. Non è l'unico, posso fare altre domande :)
Wiki dice che oltre al solito circuito.
Il neurone utilizza anche la moltiplicazione degli ingressi, e il segnale di feedback (apparentemente da ritardo), giura anche che il metodo principale BeckProP spesso si blocca quando un errore cicli in feedback, quindi è auspicabile fare ibridi di apprendimento con GA. Gli attivatori sono solo sul primo strato, poi tutto è lineare, il primo neurone (o comitato che non capisco bene) trasforma gli input, gli altri svolgono un ruolo di filtri (permettendo o meno il passaggio del segnale).
Si può chiamare un blocco neurale o un singolo neurone con una funzione complessa di passaggio, dipende da come lo si guarda, una rete è costruita da tali blocchi.
Non conosco affatto il principio. Non è l'unica, posso fare altre domande :)