NS + indicatori. Esperimento. - pagina 4

 
Sarebbe utile dare un altro link che spiega perché Close è più difficile da prevedere - Proprietà interessanti di High, Low
 
klot:
Recentemente ho sperimentato ZZ in Neuroshelle Day Trader. Ho alimentato la differenza normalizzata tra il prezzo e diversi estremi ZZ fissi all'input PNN (classificatore). Ho anche provato rapporti di differenze (cioè modelli armonici se volete). NS trova le verità su un intervallo di tempo limitato. Non dirò che è un graal, ma il sistema è in profitto su dati che non ha visto.


E come avete normalizzato esattamente la differenza? La differenza tra il prezzo e l'ultimo estremo? O qualcos'altro? E che classificatore hai usato, i grafici di Kohonen?

Non sono ancora arrivato a ZZ. Finora ho sperimentato con Kohonen, e ho normalizzato i dati con il muving. Anche in generale, il potenziale è visibile, anche se debole. Voglio collegare le uscite di rete a un "amplificatore" =)). Inoltre ho cercato di classificare i candelieri - li ho codificati usando diversi metodi e li ho caricati nella tabella Kohonen. In linea di principio non era neanche male, almeno le spine simili hanno le stesse classi. Ma non ho ancora capito come funziona la normalizzazione. Ho provato a convertirlo in gamma 0+1, gamma -1+1, sigmoidale e tangente. Ho provato a usare i dati "così come sono". In qualche modo non ho visto alcun vantaggio dell'uno o dell'altro metodo.

 
Rosh, hai qualche idea del perché per un processo casuale il valore di H+L è prevedibile (in questo caso, persistente)?
 
Penso perché è molto più facile prevedere il range che limita il prezzo che il prezzo di chiusura stesso. Inoltre, penso che si debba determinare la probabilità di una mossa o di un'inversione continuando che il valore assoluto del prezzo stesso e quando ci arriverà.
 
Neutron:
Rosh, capisci perché H+L è prevedibile (in questo caso, persistente) per un processo casuale?

Pensavo fosse semplice, H e L sono come un intervallo di confidenza per una variabile casuale, se magari il numero e il bestiame non cambiassero, allora questo intervallo di confidenza rimarrebbe al suo posto (una costante). E Close è una previsione del valore di questo eventuale valore e sta correndo tra H e L, ecco perché è più difficile da prevedere.
 

Non ho questa comprensione e continuo a non averla. Prival, non accetto la tua ipotesi che sia una specie di intervallo (ti ricordi il picco di 200 punti sul cavo, che è fatto da un tick?). Nessun neurone può prevederlo, ma Fibami, credo, è abbastanza probabile...

P.S. Non è anche chiaro: perché le forcine così lunghe amano andare solo verso il basso?

 
alexx:
klot:
Recentemente ho sperimentato ZZ in Neuroshelle Day Trader. Ho alimentato una differenza normalizzata tra il prezzo e diversi estremi ZZ fissi all'input PNN (classificatore). Ho anche provato rapporti di differenze (cioè modelli armonici se volete). NS trova le verità su un intervallo di tempo limitato. Non dirò che è un graal, ma il sistema è in profitto su dati che non ha visto.


E come avete normalizzato esattamente la differenza? La differenza tra il prezzo e l'ultimo estremo? O qualcos'altro? E che classificatore hai usato, i grafici di Kohonen?

Non sono ancora arrivato a ZZ. Finora ho sperimentato con Kohonen, e ho normalizzato i dati con il muving. Anche in generale, il potenziale è visibile, anche se debole. Voglio collegare le uscite di rete a un "amplificatore" =)). Inoltre ho cercato di classificare i candelieri - li ho codificati usando diversi metodi e li ho caricati nella tabella Kohonen. In linea di principio non era neanche male, almeno le spine simili hanno le stesse classi. Ma non ho ancora capito come funziona la normalizzazione. Ho provato a convertirlo in gamma 0+1, gamma -1+1, sigmoidale e tangente. Ho provato a usare i dati "così come sono". In qualche modo non ho visto alcun vantaggio dell'uno o dell'altro metodo.


Faccio tutti i miei esperimenti in NSDT. Prendo le differenze tra il prezzo e l'ultimo estremo di ZZ. E anche tra l'ultimo e il penultimo estremo, ecc... E anche relazioni tra differenze, - (X-A)/(A-B), (B-A)/(B-C), (B-C)/(C-D), (X-A)/(D-A), in generale cercando di costruire modelli armonici di Gartley. Ho messo tutto in una rete di probabilità (ci sono diverse varietà in NSh). Ho normalizzato i valori usando NSh, beh, in realtà questa formula

(x-ma(x,n))/(3*stdev(x,n)), ultimamente uso sempre questa formula. E, in realtà, andate avanti per imparare, fare controlli incrociati e OOS.

 

Ecco un esempio di normalizzazione che uso quasi ovunque.

Puoi sostituire qualsiasi cosa tu voglia con Close...

File:
normalise.mq4  3 kb
 
Mathemat:

Non ho questa comprensione e continuo a non averla. Prival, non accetto la tua ipotesi che sia una specie di intervallo (ti ricordi il picco di 200 punti sul cavo, che è fatto da un tick?) Nessuna rete neurale può prevederlo, ma Fibami .... Penso che sia abbastanza possibile...

P.S. E un'altra cosa che non capisco: perché a questi stalloni così lunghi piace solo scendere?


Cercherò di spiegare in modo più dettagliato. H e L non sono altro che un intervallo di confidenza. Il valore di sl. non è andato oltre questi limiti per un giorno. 1 barretta al giorno. Ora supponiamo che questo valore casuale segua una legge di distribuzione. H e L sono approssimativamente mozh+-3sko, cioè con una probabilità 0,997 il valore casuale si trova in questi limiti. È più facile prevedere H e L in questa situazione, perché è quasi una costante, mentre il valore della pendenza (Close) rimane come era.

Semplicemente tracciate (potete generare) la funzione di densità di probabilità del valore e segnatelo come positivo+3co. Generare 1000 valori e da esso (campione) determinare questi punti, sono quasi costante, ma l'ultimo numero nella generazione di casuale (Chiudere). Puoi farlo 100 volte e controllare.

Per le borchie, forse il seguente metodo ti aiuterà - prendi 10 misure (tick) e calcola un ponte. I due più estremi, che sono nell'intervallo + e -, vengono scartati. E poi potete usare di nuovo questa funzione. Questa stima della quantità sconosciuta è più accurata, perché ha proprietà di stabilità a questi outlier anomali (errore di misurazione apparente).

 

Nell'argomento Proprietà interessanti di Alto, Basso si parla della previsione "anomala" della serie (H+L)/2. Il paradosso è immaginario!

Guarda, se la condizione che H-L (prima approssimazione della volatilità dello strumento) è molto inferiore a (H+L)/2 (prima approssimazione del prezzo assoluto dello strumento), allora (H+L)/2 è equivalente alla procedura di mediazione di BP con finestra scorrevole uguale a 2. A pensarci bene, è davvero quasi una media. D'altra parte, una media mobile ha SEMPRE un coefficiente di autocorrelazione (CAC) positivo tra gli incrementi adiacenti della serie (questo può essere dimostrato direttamente). Quindi, per un BP ottenuto dall'integrazione di gradienti casuali e che di conseguenza ha un OAC di gradienti che tende a zero, l'OAC tracciato per la sua serie (H+L)/2 sarà sempre non-zero e positivo! Purtroppo, questo fatto non permetterà di prevedere BP, poiché per la serie (H+L)/2 ci sarà invariabilmente un ritardo di fase, che metterà tutto al suo posto.

Come questo.