Usare le reti neurali nel trading - pagina 14

 
TheXpert:
Ah, è facile. Appena comincia ad imparare, è sufficiente.


Ora dimostrerò la nuova rete. Con tutti i test.
 
TheXpert:
Ah, è facile. Non appena comincia ad imparare, è sufficiente.

Anche il Perseptron di Reshetov impara qualcosa, ma ovviamente non è abbastanza....

Secondo me, per parlare di sufficienza bisogna in qualche modo imparare ad analizzare i risultati della formazione, su OV, in funzione del periodo di formazione (numero di esempi di input) e OOS da solo non è un aiuto in questo caso. Mi sono imbattuto in questo posto per molto tempo, sento che la verità è da qualche parte nelle vicinanze, ma non posso afferrarla.

 
Figar0:

Ho inciampato in questo posto per molto tempo, sento che la verità è da qualche parte vicina, ma non riesco ad afferrarla.

Beh, non so, questa è la cosa elementare.
 
Figar0:

Anche il Perseptron di Reshetov impara qualcosa, ma ovviamente non è abbastanza....

Secondo me, per parlare di sufficienza bisogna in qualche modo imparare ad analizzare i risultati della formazione, su OV, in funzione del periodo di formazione (numero di esempi di input) e OOS da solo non è un aiuto in questo caso. Mi sono imbattuto in questo posto per molto tempo, sento che la verità è da qualche parte nelle vicinanze, ma non riesco ad afferrarla.


Mi sembra di averla afferrata. Ottimizzazione su un grande campione. Ottengo che il drawdown sia inferiore al profitto netto. Poi riduco il campione e aggiungo un ultimo neurone di raffinazione. Potrei sbagliarmi. Posterò un esempio.
 

Ho usato diversi approcci nella mia ricerca:

1) dare alla rete un input di sinistra, ben visibile, come un cambiamento giornaliero del tempo del sole, e insegnarle a commerciare su questo input per esempio per un mese. Qui la rete nella sua forma pura dovrebbe dimostrare la sua capacità di ricordare/seguire. Poi ha dato input normali. Ho cercato di analizzare la differenza tra i risultati dell'allenamento in qualche modo.

2) Ha provato ad analizzare il risultato della formazione in funzione dell'aumento della dimensione del campione di formazione. Quasi tutte le reti e le configurazioni, fino a un certo momento c'è un aumento del risultato, poi di solito si verifica una stagnazione, e aumentando ulteriormente il numero di campioni di input può portare a risultati peggiori.

Con questi risultati della mia ricerca sto cercando di trarre delle conclusioni sulla sufficienza della rete e sul periodo di addestramento, e se c'è qualche connessione tra loro. Ecco perché sono entrato in questo thread. Forse qualcuno suggerirà qualcosa.

 
C'è un errore quadratico medio cumulativo. Può essere confrontato per diverse reti. E usarlo per determinare se impara qualcosa.
 
TheXpert:
C'è un errore quadratico medio cumulativo. Può essere confrontato per diverse reti. E usarlo per determinare se impara qualcosa.

Errore di cosa?
 
grell:
Errore di cosa?
L'uscita, ovviamente.
 
TheXpert:
L'uscita, ovviamente.


E se l'uscita non è prevista, allora come?
 
grell:

Ho fatto un po' di confusione. Ottimizzazione su un grande campione. Ottengo che il drawdown sia inferiore al profitto netto. Poi riduco il campione e aggiungo un ultimo neurone di raffinazione. Potrei sbagliarmi. Pubblicherò un esempio.
Sarebbe bello, per esempio mi piacerebbe vedere come funziona esattamente l'Expert Advisor sul periodo di formazione, che tu consideri di successo.