Galateo del mercato o buone maniere in un campo minato - pagina 27

 
:-)
 

Cento epoche sono sufficienti se il segno è previsto?

Un'altra cosa: quando la rete è appena inizializzata ha bisogno di N epoche di addestramento, e quando la rete è già addestrata, cioè in ogni passo successivo (dopo la prossima predizione) ha bisogno anche di N epoche, o ne basta una?

 

Bella domanda, Paralocus.

Posso solo dare raccomandazioni. Quindi, secondo i miei dati sperimentali, il numero di epoche di allenamento per NS con input binario varia da 10 a 100 iterazioni per 2 e 8 neuroni nello strato nascosto, rispettivamente. Per l'ingresso analogico - 300-500. Tutto dovrebbe essere testato sperimentalmente.

N epoche sono necessarie ogni volta.

 

Capisco.

Ecco il codice della griglia:

код сюда не влез, поэтому в аттаче

Io, per mia vergogna, sono ancora confuso da una semplice domanda: il calcolo della lunghezza dell'epoca.

Sembra chiaro - P = k*w^2/q, dove k = (2...4); w - numero di sinapsi, q - numero di ingressi. A quanto pare, ho una specie di confusione terminologica nella mia testa. Come chiamare un ingresso e come chiamare una sinapsi.

Potrebbe chiarirlo ancora una volta? Succede sempre nella vita che le cose più semplici sono le più difficili da capire -:)

File:
nero2.mqh  7 kb
 

Sembra funzionare -:)


 

Sinapsi(w), è quello che ha il neurone a sinistra. Input(d), si riferisce al numero di sinapsi ad ogni neurone del primo strato (nascosto). Per un singolo neurone NS, il numero di sinapsi è uguale al numero di ingressi. Per il NS composto da due strati e contenente due neuroni nel primo strato (nascosto) e uno nel secondo (uscita): w=2d+3 . L'ingresso di un neurone con un offset costante di +1 è considerato un ingresso regolare. Per una tale rete con d=100, il numero di sinapsi w=2*100+3=203. Lunghezza ottimale del vettore di allenamento P=k*w^2/d=2*(2d+3)*(2d+3)/d=(circa)=2*2d*2=8d=8*100=800 campioni.

 

Grazie!

Rielaborato gli ingressi in binario - tutto è andato molto meglio! Ora sto eseguendo la griglia nel tester con diverse combinazioni di ingressi. Che grande lavoro... -:)

 

Guten morgen,

Vorrei condividere la mia gioia: il primo risultato decente, anche grazie ad alcuni consigli di Neutron in passato... La barra blu è il nuovo dato, ordinata in pip. Ascissa: 10.000 EURUSD60.

Posizioni lunghe:

Le posizioni corte non sono così impressionanti:

Rete neurale, 13 ingressi, nessun livello nascosto. Addestramento con algoritmo genetico

 

Neutron, sembra che tu avessi ragione sul conteggio delle 25 letture... -:)

Qualcosa nella mia rete non sta imparando. Dopo 100 epoche, i pesi sono quasi gli stessi con cui la rete è stata inizializzata.

In una nota correlata, un'altra domanda stupida:

Il vettore di apprendimento è lo stesso in ogni epoca o no?

Comunque, si scopre che il rapporto tra la correzione accumulata e la correzione al quadrato accumulata tende a zero molto rapidamente. Così dopo la decima iterazione l'apprendimento si ferma praticamente.

 
YDzh писал(а) >>

Rete neurale, 13 ingressi, nessun livello nascosto. Addestramento dell'algoritmo genetico

Forte, YDzh!

I miei risultati sono molto più modesti. Dovresti metterlo in demo e vedere cosa taglia la griglia.