Rete Stereo Neuro

 

In Avishka, se strizzate bene gli occhi e cadete in uno stato di Nirvana, potete vedere come una griglia non lineare a 3 strati a due entrate spala i dati di input (la serie dei prezzi) cercando di trovare dei modelli nascosti in essa. E, infatti, lo trova.

P.S. Questo non deve essere preso sul serio.

File:
3d_1.zip  1295 kb
 
Neutron >> :

In Avishka, se strizzate bene gli occhi e cadete in uno stato di Nirvana, potete vedere come una griglia non lineare a 3 strati a due entrate spala i dati di input (la serie dei prezzi) cercando di trovare dei modelli nascosti in essa. E, infatti, lo trova.

P.S. Non dovresti prenderlo sul serio.

E prima, come ricordo ora, nella piccola sala del cinema Oktyabr, davano degli occhiali speciali...

 
Sono solo altri cartoni animati di qualche ditta di neuro-package?
 
No, quelle sono le mie vignette. Li ho inventati io, o meglio lei (NS) ha capito come dividere i due segnali d'ingresso in Buy e Sell.
 
Neutron >> :
No, quelle sono le mie vignette. Li ho inventati io stesso, o meglio esso (NS) ha inventato come dividere due segnali di ingresso in Buy e Sell.

>> è come la quantizzazione degli input, come in SOM, o è qualche altro tipo di NS?

 
Perché due grafici?
 

Beh, questo è per lo stereo. È davvero un'immagine tridimensionale.

budimir писал(а) >>

>> è come una quantizzazione dei dati di input come in SOM, o è qualche altro tipo di NS?

È un perseptron convenzionale a triplo strato con bias e non linearità in ogni neurone, completamente riqualificato ad ogni barra.
 
Se è un normale Perspectron a tre strati, perché dovrebbe essere completamente riqualificato su OGNI barra?
 

Posso farle una domanda?

Se è possibile, perché no?

 

La possibilità esiste, ma ci sono tipi speciali di NS, dove è necessario condurre l'addestramento ad ogni barra, come per il tipo NS MLP,

Ci deve essere qualche criterio per cui MLP deve essere completamente riqualificato in OGNI bar,

e un tale criterio - che ci sia una tale possibilità - è discutibile.

 
Impegnandoci in questo dialogo, stiamo inconsciamente risolvendo diversi problemi di ottimizzazione (in senso globale). Quale approccio avete scelto posso solo indovinare. Sulla mia posso dire che in questa fase della ricerca ho abbastanza potenza di calcolo a disposizione per non limitarmi con il parametro "complessità della formazione NS". Ovviamente, non c'è nulla di male nel riqualificare (addestramento aggiuntivo) di NS ad ogni passo. Così, posso concentrare la mia attenzione su altri aspetti interessanti dell'IA abbassando di uno la dimensionalità dello spazio dei parametri nel dominio studiato. Penso, in questo senso, che sto facendo in modo ottimale.