La nostra Masha! - pagina 4

 
Prival >> :

Il perfetto MA lo fa. Dialogo con l'autore. Alexander Smirnov".

vedere il post ANG3110 06.02.2008 20:48

Quanto è perfetto se ridisegna?

 
Neutron >> :

massimizziamo il profitto "senza conoscere" la storia, analizzando solo l'ultima lettura della quotazione e il suo unico valore precedente X[i]-X[i-1] e basta. Sembra così.

Cioè, state creando il sistema più redditizio possibile. E il metodo che state sviluppando utilizza tutte le regolarità che possono essere tracciate sulla storia a vostra disposizione.

>> Audace!

 
TheXpert писал(а) >>

Quanto è perfetto se si sfora?

Prendiamo la storia e ci costruiamo sopra un MA perfetto. Questo è ciò per cui lottare. E cerchiamo quello che non andrà in eccesso e che ha una deviazione minima da questa curva. Funziona così

 
Continuo a voler arrivare a Bulashov. La formula del mashup perfetto era più o meno la stessa. Ma alla fine è stato un DEMA
 
mql4com писал(а) >>

In altre parole, state creando il sistema più redditizio possibile. E il metodo che state sviluppando utilizza tutte le regolarità che possono essere rintracciate nella storia a vostra disposizione.

Audace!

Bene, bene, bene. Sembro il paziente numero sei?

Ovviamente, se usate questo metodo o qualsiasi altro per prevedere la dinamica di una variabile casuale integrata (esattamente casuale, non quasi-casuale), otterrete zero! Per definizione, non si può battere un processo casuale, è una legge di natura. D'altra parte, le serie temporali (TR), come le serie di prezzi, non sono completamente casuali, ci sono regolarità esplicite e implicite, il cui sfruttamento permette di ottenere un reddito statistico nel mercato Forex. Quindi, abbiamo bisogno di metodi e strumenti per rilevare questi modelli deboli. Uno di questi metodi è l'applicazione delle medie mobili alle quotazioni. Questo metodo ha un'area di applicabilità ben definita, dove il suo sfruttamento è giustificato e matematicamente corretto. Nella sua essenza, tutte le medie mobili sono una forma di integrazione della BP iniziale. Nel senso più generale, l'integrazione è la previsione del futuro attraverso le tendenze, e la differenziazione è la determinazione delle tendenze del processo. Ma quali tendenze esattamente? Se guardiamo da vicino il fascio di

BP-MA-prediction, non è difficile determinare il requisito per l'applicabilità del metodo MA, come un coefficiente di correlazione positivo tra letture vicine nella serie della prima differenza di BP. È in questo caso, le MA daranno strategie redditizie e la nostra MA darà il miglior profitto possibile! Questo è ciò per cui stiamo lottando.

Tuttavia, se analizziamo i BP di prezzo per la conformità con il requisito di cui sopra, il risultato dell'analisi sarà piuttosto negativo. In realtà, la realtà è che le serie dei prezzi su tutti i TF di solito hanno un piccolo coefficiente di autocorrelazione negativo nella serie della prima differenza e solo a volte, sulle tendenze, questo coefficiente è positivo.

L'applicabilità del metodo proposto e la sua efficienza possono essere stimate solo dai risultati degli esperimenti.

Vinin ha scritto >>.
Continuo a voler arrivare a Bulashov. La formula per il pastone perfetto era più o meno la stessa. Ma alla fine è stata una DEMA.
Non DEMA, ma MEMA e i suoi funzionali non avevano un termine responsabile della massimizzazione della redditività di TC, ma avevano un termine che minimizzava la derivata seconda. Questo ha permesso di costruire una MA molto liscia e questo è tutto. Ed ecco l'articolo di Bulashov:
File:
mema_3.zip  279 kb
 
Neutron >> :


Invece di Mashek, uso l'interpolazione tramite polinomi di potenza usando il metodo NK
su qualche finestra. Chiaramente, l'estrapolazione della curvatura di interpolazione
anche in una piccola vicinanza futura è quasi senza senso, ma per descrivere l'attuale
nel posto più interessante - al margine destro di BP, ci permette di descrivere lo stato attuale.
Variando la dimensione della finestra e il grado di curvatura è possibile
d'altra parte è possibile avere una visione più generale o dettagliata di ciò che sta accadendo, enfatizzando il processo attuale e le sue fasi.
processo e le sue fasi.


Secondo me, l'unico modo per prevedere il futuro della BP è analizzare
l'evoluzione dei processi - tipo, c'era un forte processo verso il basso, nello stato attuale
è stato sostituito da un processo laterale -> è possibile un ulteriore processo di crescita.


Questo approccio, a mio parere, è particolarmente utile per i networker, perché i NS possono
alimentare alcune caratteristiche tipiche di una curva di interpolazione,
per esempio la componente di tendenza (direzione e grandezza), la deviazione dal
componente di tendenza, una forma di curva formalizzata, ecc. - in generale, per quanto
della vostra immaginazione - insegnando alla rete a identificare la corrente e prevedere
prevedere i processi futuri e costruire una strategia di trading su questa base.


È anche possibile smussare il passato lontano e quello vicino in modi diversi - qualcosa
simile all'EMA. È anche possibile implementare un approccio sintetico
- utilizzare una media mobile molto lisciata con un corrispondente lungo
ritardo, e il passato prossimo, dove il muving non funziona ancora,
analizzarlo usando la curva di interpolazione.

 
Aleku >> :

Un tale approccio, a mio parere, è particolarmente utile per i networker, perché i NS possono
per alimentare alcune caratteristiche tipiche di una curva di interpolazione,
per esempio componente di tendenza (direzione e grandezza), deviazione da
componente di tendenza, una forma di curva formalizzata, ecc. - in generale, per quanto
della vostra immaginazione - insegnando alla rete a identificare la corrente e prevedere
prevedere i processi futuri e costruire una strategia di trading su questa base.

Secondo me, questo tipo di pre-elaborazione dei dati di input per NS è una specie di stampella. Integrando il BP iniziale con i muves, rendiamo innanzitutto chiaro a noi stessi il quadro dei prezzi (curva liscia, tendenze visibili), mentre il processo di lisciatura in sé non porta alcuna informazione aggiuntiva ai dati di input (non è disponibile) e, quindi, non facilita il lavoro dei NS. Da questo punto di vista, i dati appositamente sezionati dovrebbero essere alimentati all'ingresso del NS, che concentra al massimo l'attenzione della rete sul processo quasi-stazionario. Un candidato per tale processo può essere un coefficiente di correlazione negativo nella PDF, che, tra l'altro, non può essere isolato dall'integrazione kotir (smoothing). Qui sono necessari altri metodi e approcci. Questo sembra promettente.


È anche possibile smussare il passato lontano e quello vicino in modi diversi - qualcosa
simile all'EMA. È anche possibile implementare un approccio sintetico
- utilizzare una media mobile molto lisciata con un corrispondente lungo
ritardo, e il passato prossimo, dove il muving non funziona ancora,
analizzare tramite curva di interpolazione.


Tutto questo è complicato e richiede una buona giustificazione, ma è quasi certamente uno spreco di sforzi e di tempo.

 
Neutron писал(а) >>

... Le serie dei prezzi su tutti i TF tendono ad avere un piccolo coefficiente di autocorrelazione negativo nella serie di prima-differenza e solo a volte, sulle tendenze, questo coefficiente è positivo.

Come hai calcolato il coefficiente di autocorrelazione? Sono consapevole della " funzione di autocorrelazione". Ma è una funzione, non un numero.
 

Supponiamo che ci sia qualche campione del BP originale, per esempio su M1. Costruiamo una serie della prima differenza d1[i]=Open[i]-Open[i-1], poi il coefficiente di correlazione per TF=1m tra campioni vicini è calcolato come; f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), dove l'indice gestisce tutti i valori di BP. Per TF=2m facciamo lo stesso, costruendo prima BP per 2m e trovando la sua prima differenza d2[i] e così via fino al TF desiderato. Mi sono limitato a TF=1500 minuti (circa 24 ore). Può sorgere la questione di come costruire un'altra TF da minuti, per esempio per M2, ma qui tutto sembra essere trasparente. Sono questi dati (valore del coefficiente di correlazione in RPM per diversi TF) che ho tracciato nel post precedente.

 
Neutron писал(а) >>

Supponiamo che ci sia qualche campione del BP originale, per esempio su M1. Costruiamo una serie della prima differenza d1[i]=Open[i]-Open[i-1], poi il coefficiente di correlazione per TF=1m tra campioni vicini è calcolato come; f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), dove l'indice gestisce tutti i valori di BP. Per TF=2m facciamo lo stesso, costruendo prima BP per 2m e trovando la sua prima differenza d2[i] e così via fino al TF desiderato. Mi sono limitato a TF=1500 minuti (circa 24 ore). Può sorgere la questione di come costruire un'altra TF da minuti, per esempio per M2, ma qui tutto sembra essere trasparente. Esattamente questo dato (valore del coefficiente di correlazione in RPM per diversi TF) è quello che ho mostrato nel post precedente sul grafico.

Ancora meglio ) Cosa sono queste formule e da dove le prendi.

вот посмотрите как расчитывается коэффициент кореляции https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%8D%D1%84%D1%84%D0%B8%D1%86%D0%B8%D0%B5%D0%BD%D1%82_%D0%BA%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D0%B8

Il coefficiente di correlazione è calcolato tra gli array, non tra i conteggi. Per favore, siate precisi nelle vostre formulazioni in modo che gli altri possano capire ciò che state dicendo, affermando e contando.