Galateo del mercato o buone maniere in un campo minato - pagina 27
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Cento epoche sono sufficienti se il segno è previsto?
Un'altra cosa: quando la rete è appena inizializzata ha bisogno di N epoche di addestramento, e quando la rete è già addestrata, cioè in ogni passo successivo (dopo la prossima predizione) ha bisogno anche di N epoche, o ne basta una?
Bella domanda, Paralocus.
Posso solo dare raccomandazioni. Quindi, secondo i miei dati sperimentali, il numero di epoche di allenamento per NS con input binario varia da 10 a 100 iterazioni per 2 e 8 neuroni nello strato nascosto, rispettivamente. Per l'ingresso analogico - 300-500. Tutto dovrebbe essere testato sperimentalmente.
N epoche sono necessarie ogni volta.
Capisco.
Ecco il codice della griglia:
код сюда не влез, поэтому в аттаче
Io, per mia vergogna, sono ancora confuso da una semplice domanda: il calcolo della lunghezza dell'epoca.
Sembra chiaro - P = k*w^2/q, dove k = (2...4); w - numero di sinapsi, q - numero di ingressi. A quanto pare, ho una specie di confusione terminologica nella mia testa. Come chiamare un ingresso e come chiamare una sinapsi.
Potrebbe chiarirlo ancora una volta? Succede sempre nella vita che le cose più semplici sono le più difficili da capire -:)
Sembra funzionare -:)
Sinapsi(w), è quello che ha il neurone a sinistra. Input(d), si riferisce al numero di sinapsi ad ogni neurone del primo strato (nascosto). Per un singolo neurone NS, il numero di sinapsi è uguale al numero di ingressi. Per il NS composto da due strati e contenente due neuroni nel primo strato (nascosto) e uno nel secondo (uscita): w=2d+3 . L'ingresso di un neurone con un offset costante di +1 è considerato un ingresso regolare. Per una tale rete con d=100, il numero di sinapsi w=2*100+3=203. Lunghezza ottimale del vettore di allenamento P=k*w^2/d=2*(2d+3)*(2d+3)/d=(circa)=2*2d*2=8d=8*100=800 campioni.
Grazie!
Rielaborato gli ingressi in binario - tutto è andato molto meglio! Ora sto eseguendo la griglia nel tester con diverse combinazioni di ingressi. Che grande lavoro... -:)
Guten morgen,
Vorrei condividere la mia gioia: il primo risultato decente, anche grazie ad alcuni consigli di Neutron in passato... La barra blu è il nuovo dato, ordinata in pip. Ascissa: 10.000 EURUSD60.
Posizioni lunghe:
Le posizioni corte non sono così impressionanti:
Rete neurale, 13 ingressi, nessun livello nascosto. Addestramento con algoritmo genetico
Neutron, sembra che tu avessi ragione sul conteggio delle 25 letture... -:)
Qualcosa nella mia rete non sta imparando. Dopo 100 epoche, i pesi sono quasi gli stessi con cui la rete è stata inizializzata.
In una nota correlata, un'altra domanda stupida:
Il vettore di apprendimento è lo stesso in ogni epoca o no?
Comunque, si scopre che il rapporto tra la correzione accumulata e la correzione al quadrato accumulata tende a zero molto rapidamente. Così dopo la decima iterazione l'apprendimento si ferma praticamente.
Rete neurale, 13 ingressi, nessun livello nascosto. Addestramento dell'algoritmo genetico
Forte, YDzh!
I miei risultati sono molto più modesti. Dovresti metterlo in demo e vedere cosa taglia la griglia.