Fenomeni di mercato - pagina 23

 

Avvicinandosi gradualmente ai modelli e al fenomeno. Quindi, i modelli stocastici con una struttura aleatoria presuppongono, ovviamente, i modelli stessi e una descrizione della transizione tra di loro (cioè una qualche logica probabilistica di intercettare un processo con un altro, che questi modelli generano). Possiamo dire che BP è descritto da 100 equazioni differenziali di Ito, e poi c'è una questione di identificazione dei modelli, - quali funzioni, quali bias, quali coefficienti di diffusione per ciascuno, qual è il vettore di probabilità iniziale degli stati dei sistemi, in generale - non è un compito banale.

Così ho inventato una trasformazione che decompone qualsiasi serie temporale iniziale in due sottoprocessi. Non ho visto niente di simile prima, ma forse è uno dei casi particolari di rappresentazione canonica di funzioni casuali. Chi lo sa, non sono un matematico professionista. Il succo è "setacciare" attraverso una griglia. Ma non importa, non voglio ancora esporre la matematica, devo occuparmi delle idee e del concetto. Ciò che è importante è che dopo la trasformazione otteniamo solo due processi, questi processi sono lineari ma hanno una struttura più complicata.

Processo casuale. Il processo è abbinato nelle sue caratteristiche agli incrementi di M15

Dopo la trasformazione otteniamo:

Per un processo casuale, i coefficienti b(alfa) e b(omega) nei modelli, saranno modulo lo stesso, la differenza di lunghezze rispettivamente mostrerà la predominanza di una o l'altra dinamica, e per un processo casuale la struttura interna dei processi separati sarà vicina alla linea. Ci sono ancora alcune questioni teoriche e lo sviluppo di algoritmi migliori, ma questa è una storia a parte.

A proposito, un'altra affermazione indiretta (nel senso non ancora strettamente provata) è che il processo citato non è casuale, poiché le caratteristiche di decomposizione sono diverse da quelle dei BP casuali (beh... non ci sono ancora tutte).

Quindi, c'è ancora la questione delle probabilità di transizione tra stati (processi). Se queste transizioni possono essere considerate "markoviane", allora con la formula di Kolmogorov-Chempen sarà possibile ottenere le probabilità degli stati del sistema in un dato orizzonte futuro.

Circa il fenomeno più figo (non è solo un ramo di fenomeni già pronti, come se la ricerca fosse permessa o no?) Quindi, qui sono sicuro che ci sono"modelli stocastici" (TA non ha nulla a che fare con esso), una certezza molto forte, spero che saranno confermati. È possibile che io mi sbagli e allora, sento già, è spaventoso da immaginare, paukas dopo tutto una fattura per il profitto perso sarà presentata per il pagamento.

 
IgorM:

Non capisco una cosa, perché avete bisogno di analizzare Oreps?

Bene, gli oppen e i close sono artificialmente abbassati o alzati alla chiusura della barra, a volte sembra che alla chiusura della barra "ci sia un gioco per ridisegnare il colore della candela".

La mia teoria è che tutto ciò che otteniamo dai DT, l'intero OHLC è artificiale. Ma seriamente, abbiamo bisogno di misurare il processo a intervalli di tempo uguali (da un punto di vista ingegneristico DSP è più familiare e corretto). Le proprietà OHLC non mi sembrano molto diverse.
 
Farnsworth:
Scherzi a parte, bisogna misurare il processo a intervalli di tempo uguali (DSP è più familiare e corretto da un punto di vista ingegneristico).
NN, stai cercando una sorta di slancio
 
IgorM:
NN, stai cercando una sorta di slancio
No, la quantità di moto (e tutti i suoi derivati) non c'entra niente.
 
Farnsworth:
La mia teoria è che tutto ciò che otteniamo da DC, tutto l'OHLC, è artificiale. Seriamente, però, abbiamo bisogno di misurare il processo a intervalli di tempo uguali (poiché da un punto di vista ingegneristico il DSP è più familiare e corretto). Le proprietà OHLC non mi sembrano molto diverse.
Beh, per il bene dell'interesse, potresti provare a guardare l'alfa da high-am e l'omega da low-am.
 
marketeer:
Beh, per il bene dell'interesse si potrebbe provare a guardare alfa da high-am e omega da low-am.

Non è una domanda, solo domenica prossima, quando arriverò al laboratorio. Non credo che cambieranno fondamentalmente, anche tutte le caratteristiche di conversione rimarranno approssimativamente le stesse.

a tutti

Ancora una volta vorrei prestare attenzione, non so i colleghi, ma quando preso all'interno della RMS dell'incremento ha prodotto una tendenza - sono stato molto sorpreso. Confesso che mi aspettavo qualcosa come una tendenza errante. È davvero una tendenza. L'ho mostrato usando il coefficiente di determinazione come esempio, ma è un pessimo indicatore perché caratterizza la qualità dell'adattamento del modello nella serie originale, cioè una regressione lineare può adattarsi perfettamente a qualsiasi serie, anche una casuale e mostrerà che per esempio il 95% delle serie temporali sulla storia di 10 anni sono spiegate da a+b*x entro l'errore medio. Una volta utilizzate le caratteristiche frattali, in particolare la stima dell'indice di Hurst in diversi modi (analisi R/S, deviazione della varianza...). Richiede molto tempo per il calcolo, ma mostra con sicurezza la tendenza per una data LAMBDA, a differenza delle passeggiate casuali.

Ci sono anche sottigliezze interessanti, ma questo è molto più tardi.

 
Farnsworth:
Speriamo di arrivare a una matematica "frattale" più seria nello studio delle "code grasse". Ci vorrà ancora un po' di tempo, ma per ora pubblico uno studio quasi scientifico che mi ha dato qualche idea.

Ipotesi sul modello.

...

Taki, questo è molto più interessante di prima.

Ecco la domanda, c'è qualche correlazione significativa tra i conteggi, in entrambi i processi (tendenza lineare, non è proprio così). Il pensiero è semplice, se tale dipendenza appare, dopo tutte le trasformazioni, allora i processi (entrambi) hanno proprietà che li distinguono da una passeggiata casuale.

A proposito, per dividere in processi possiamo anche usarlo. Cioè dividere non per RMS cutoff, ma per... non so, autocorrelazione, per esempio.

 
HideYourRichess:

Taki, questo è molto più interessante di prima.

La domanda è se c'è una dipendenza significativa tra i campioni in entrambi i processi (tendenza lineare, non proprio). Il pensiero è semplice, se tale dipendenza appare, dopo tutte le trasformazioni, allora i processi (entrambi) hanno proprietà che li distinguono da una passeggiata casuale.

A proposito, per dividere in processi possiamo anche usarlo. Cioè dividere non per il cutoff RMS, ma per... non so, per l'autocorrelazione, per esempio.


Da dove vengono i modelli/le dipendenze? Si prende un lasso di tempo e si mettono alcuni degli incrementi in una pila e alcuni in un'altra, a seconda del valore. E alcuni punti o uno spostamento del punto di riferimento possono cambiare la composizione di questi "processi". Da dove viene la logica di trading con una tale ripartizione? Riferiamo 20 punti su m15 a omega, ma se avessimo 21 punti sarebbe diverso - è alfa :) Da dove viene una tale matrice di divisione dei rimpatriati? Come potrebbe essere andata diversamente da una passeggiata casuale, visto che la matrice mostra che un "processo" avrà più ritorni negativi e l'altro più positivi? Naturalmente, un processo avrà più ritorni negativi e l'altro avrà più ritorni positivi?
 
HideYourRichess:

Taki, questo è molto più interessante di prima.

La domanda è se c'è una dipendenza significativa tra i conteggi in entrambi i processi. Il pensiero è semplice, se tale dipendenza appare dopo tutte le trasformazioni, allora i processi hanno davvero proprietà che li distinguono dal random walk.

La correlazione per questi processi non è ancora stata cercata. Inoltre, non l'ho guardato di proposito. La ragione principale è che ho "estratto" dalla serie solo i conteggi che rientravano nella classificazione. I buchi che appaiono sono stati semplicemente ignorati. Cioè, secondo la concezione originale, c'è una tendenza deterministica, con una struttura più complessa di una semplice linea, ma è deterministica. E questo processo di "tendenza" viene interrotto (esattamente interrotto o distrutto) da un altro, più complesso "processo assassino" (code, orecchie, qualsiasi cosa spunti). È importante notare che non è la tendenza che si mescola al rumore, ma piuttosto due processi molto complessi che competono, uno creativo, l'altro distruttivo.

Da usare? - Quasi facile :o) Si può prevedere il "processo di trasporto" abbastanza accuratamente (entro limiti ragionevoli), e poi, per esempio, usando il metodo Monte Carlo, stimare la distruzione futura, così come stimare i livelli più probabili di accumulazione dei prezzi dopo il "crash".

E penso che in questo processo infinito di creazione e distruzione di tendenze ci devono essere proprio questi "modelli stocastici". Guardandoli da diverse angolazioni, ed ecco un altro approccio. Ma la filosofia cambia un po', si scopre che c'è una tendenza, è predeterminata dalla natura stessa della società, della società, del paese, di qualsiasi cosa. È uno, cioè non ci sono tori e orsi. Ma ci sono condizioni ambientali in cui questa tendenza non può esistere in condizioni ideali, compresa la società stessa, che può distruggerla (la tendenza). Ma questo è tutto un testo, non farci caso.

A proposito, per dividere un processo, è anche possibile usare questo. Cioè dividere non per RMS cutoff, ma per... non so, per autocorrelazione, per esempio.

In linea di principio questo è corretto, non è l'unico modo di filtrare.

PS IMPORTANTE: non ho potuto filtrare questo processo in termini di DSP, non ho potuto filtrarlo affatto!!! Ma questo metodo primitivo dava risultati. Penso che questo dovrebbe funzionare bene qui, qualsiasi cosa che coinvolga il prefisso "multi".

Domenica prossima cercherò di valutare le diverse caratteristiche di questi particolari processi.

 
Avals:

Da dove vengono i modelli/le dipendenze? Hanno preso un certo lasso di tempo e hanno messo alcuni degli incrementi in una pila e altri in un'altra a seconda del valore. E alcuni punti o uno spostamento del punto di riferimento possono cambiare la composizione di questi "processi". Da dove viene la logica di trading con una tale ripartizione? Riferiamo 20 punti su m15 a omega, ma se avessimo 21 punti sarebbe diverso - è alfa :) Da dove viene una tale matrice di divisione dei rimpatriati? Come potrebbe essere andata diversamente da una passeggiata casuale, visto che la matrice mostra che un "processo" avrà più ritorni negativi e l'altro più positivi? Naturalmente, un processo avrà più ritorni negativi e l'altro avrà più ritorni positivi?

Non è così semplice. Ricordando il post di Alexei:

Un altro fenomeno è la memoria a lungo termine.

La maggior parte di noi (di quelli che lo fanno, ovviamente) sono abituati a misurare la memoria del mercato tramite la correlazione Pearson - più precisamente, l'autocorrelazione. È noto che tale correlazione è piuttosto breve e significativa con ritardi fino a 5-10 barre al massimo. Quindi, di solito si conclude che se il mercato ha una memoria, è molto breve.

Tuttavia, la correlazione di Pearson è solo in grado di misurare le relazioni lineari tra le barre - e praticamente ignora le relazioni non lineari tra loro. La teoria della correlazione dei processi casuali non si chiama lineare per niente.

Tuttavia, ci sono criteri statistici che ci permettono di stabilire il fatto di una relazione arbitraria tra variabili casuali. Per esempio, il criterio del chi-quadrato - o il criterio della mutua informazione. Non mi sono preoccupato molto del secondo, ma mi sono preoccupato del primo. Non vi spiegherò come usarlo: ci sono molti manuali su Internet che spiegano come usarlo.

La domanda principale era questa: c'è una relazione statistica tra barre che sono lontane (per esempio, se ci sono mille barre tra di loro)? Non c'erano dubbi su come usarlo nel trading.

La risposta è sì, esiste, ed è molto significativo.

Per esempio, se prendiamo la storia di EURUSD dal 1999 in H1 e controlliamo il chi-quadrato per i ritorni di coppia, scopriamo che nella gamma di "distanze" tra le barre tra 10 e 6000, in circa il 90% dei casi la barra attuale dipende dalle barre del passato. 90%! A distanze tra le barre superiori a 6000 tali dipendenze si verificano meno frequentemente, ma si verificano comunque!

Francamente, sono rimasto sbalordito da questa "scoperta", poiché dimostra direttamente che l'euro ha una memoria molto lunga. Su EURUSD H1 6000 barre sono circa un anno. Questo significa che tra le barre orarie di un anno fa, ci sono ancora barre che lo zero attuale "ricorda".

Su H4 si trova una dipendenza significativa fino a circa 1000-1500 bar. Cioè la durata della "memoria di mercato" è ancora la stessa - circa un anno.

Ricorda Peters che dice che la memoria del mercato è di circa 4 anni. La contraddizione, tuttavia... Non so ancora come risolverlo.

Non essendomi calmato, ho deciso di verificare se il mio chi-quadro avrebbe mostrato tali dipendenze se avessi alimentato i rendimenti sintetici generati indipendentemente. Ho scelto due possibili distribuzioni dei rendimenti sintetici - normale e Laplace - e l'ho eseguito. Sì, si vede, ma entro il livello di significatività del criterio (avevo 0,01)! In altre parole, il sintetico ha mostrato circa l'1% di barre dipendenti in passato - solo a livello di probabilità di errore di criterio.

Quali sono le conclusioni?

1. Le quotazioni dell'euro non sono sicuramente un processo di Markov. In un processo di Markov il valore attuale dipende solo dal valore precedente. Nel nostro caso abbiamo numerose barre nel passato molto lontano, da cui dipende la barra attuale.

2. La cosiddetta "fondazione" gioca certamente un certo ruolo - diciamo, come scusa per spostare le citazioni. Ma certamente non è l'unico. Dobbiamo guardare la tecnica!

3. Questo risultato è ancora puramente teorico e non ha alcuna importanza pratica. Tuttavia, mostra chiaramente che non tutto è perduto per coloro che cercano qualcosa.

Avals, non saltare alle conclusioni...

PS: E quello che ha scritto Alexey - lo confermo completamente!!!