una strategia di trading basata sulla teoria dell'onda di Elliott - pagina 23
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Scusate ancora per le risposte tardive. Vorrei aver guardato prima - ti avrebbe fatto risparmiare tempo, ma spero che non sia stato sprecato. Quindi non ho offerto di leggere il criterio di Hurst usando un muving - ho offerto di prendere l'algoritmo dalla consegna standard e sostituire quello che ti serve al posto dei valori del muving. In quell'algoritmo, che hai postato (non ho ancora guardato l'ultimo), c'è una variabile - la mediana del campione. Come lo vedi? Se il canale va in orizzontale - allora va bene e si ottiene quello che serve, ma nel caso generale no. Cioè, devi prendere la differenza tra il prezzo reale e la proiezione di quel prezzo su ogni barra. Cercherò di essere più specifico: se approssimi il prezzo di chiusura con un muvin, allora dovresti prendere la differenza tra il valore del muvin e il prezzo di chiusura su ogni barra. Se una regressione non lineare, allora di conseguenza il valore di questa regressione, se lineare, allora il valore della linea di regressione, ma tutto questo per ogni barra. Ecco perché ho scritto che devi avere almeno un array di proiezioni - ogni barra ha la sua proiezione. Poi si può stimare: prendere non tutto il campione, ma solo una parte di esso, costruire un intervallo - se tutto è ancora dentro l'intervallo, prendere tutto il campione e costruire una proiezione nel futuro (estrapolazione).
Buona fortuna e in bocca al lupo per le tendenze.
E questo è un approccio generale, sia per approssimazioni lineari che non lineari.
Quindi, per quanto ho capito, l'algoritmo per il calcolo del parametro di Hurst con la tua metodologia dovrebbe essere il seguente:
1. Prendiamo un campione di punti per i quali vogliamo ottenere il parametro di Hearst. Per esempio, per chiarezza, prendiamo un campione di punti da 0 a N.
2. Prendiamo successivamente una parte di campione da 0 a M dove 0<M<=N. Cioè teoricamente abbiamo N campioni che hanno i seguenti intervalli: 0-1, 0-2, 0-3, 0-4,...0-(N-1), 0-N.
3. Per ogni campione costruiamo un canale di regressione lineare. Abbiamo una serie di canali e le loro proiezioni nel futuro.
4. Calcola la differenza tra il prezzo di chiusura della barra M e la proiezione su questa barra del canale di regressione lineare, costruito per il campione 0-(M-1). Cioè, i dati della proiezione di regressione lineare tracciata per il PASSATO, non includendo la barra attuale, vengono presi quando si calcola la differenza? Giusto?
5. Allora abbiamo una tale matrice di differenze da cui determiniamo l'RMS (S)
6. Troviamo R come differenza tra i valori massimi e minimi del campione
7. Calcolare il parametro Hearst.
Ora ho capito bene come calcolare il parametro Hearst o no?
Se ho capito bene la tua idea, mi sembra un'aggiunta MOLTO IMPORTANTE al metodo di calcolo del parametro Hearst dato dalla formula del libro. Non si pone l'accento su questa circostanza del calcolo.
Buona fortuna e buone tendenze.
Con questo intendi il fatto che il concetto di livello (il suo valore dichiarato) ha senso solo per il momento attuale? E in qualche tempo i livelli cambieranno naturalmente, poiché il canale, lungo il quale il prezzo si sta muovendo, passa una certa distanza e i limiti degli intervalli di confidenza saranno situati in altri luoghi in futuro. O voleva dire qualcosa di più con questa frase? Per esempio, intende la velocità con cui il prezzo ha raggiunto questo livello? Suppongo che forse intendevi il calcolo dei parametri di Hearst? Significa che se il prezzo ha quasi raggiunto un livello, ma Hearst mostra la continuazione della tendenza, il livello sarà rotto, anche se non subito? Forse, questo è particolarmente rilevante per i livelli all'interno dell'intervallo di confidenza.
Vladislav, e quale larghezza dell'intervallo di confidenza si prende specificamente per il caso del calcolo di Hearst, così come per le ricerche generali del campione ottimale?
90%
95%
99%
99.9%
Oppure, nella vostra ricerca generale del campione ottimale, impostate costantemente diverse larghezze dell'intervallo di confidenza? Per esempio, hai cercato un campione del 90% e hai trovato un campione, poi hai cercato il 95% e ne hai trovato un altro, e così via fino al 99,9%?
O sulla base di esperimenti avete stabilito che, per esempio, i campioni ottenuti per intervalli di confidenza superiori al 95% sono di scarsa utilità per la previsione e dovrebbero essere scartati nell'analisi?
O forse sei solo guidato dal fatto che gli intervalli costruiti successivamente dovrebbero essere più piccoli di quello iniziale costruito da 2/3 campioni?
Ma comunque, quando si costruisce il primo intervallo, si dovrebbe impostare la sua larghezza, giusto?
E un'altra domanda, riguardante la sequenza dei calcoli (tempo di calcolo finale). Ho capito che quando si cerca un canale di regressione lineare, dovremmo iniziare a prendere campioni dal momento attuale in profondità nel passato. Supponiamo di aver trovato un insieme di campioni che soddisfano i requisiti di convergenza. Ma abbiamo ancora delle barre non contate e contiamo ulteriormente, ottenendo campioni che cadono fuori dall'intervallo. Allora quale criterio potrebbe essere preso per il fatto che ulteriori calcoli non hanno senso e possiamo terminare il ciclo di enumerazione dei campioni? A prima vista immagino che sia sufficiente contare lo stesso numero di battute pari al numero di battute nel campione di successo più lungo? O hai altre opzioni? Per esempio, è sufficiente contare solo il 30% del campione più lungo o qualche altro numero di barre? Oppure stimate l'intera serie di prezzi dell'ultimo semestre indipendentemente dai risultati e poi stimate gli errori calcolati per l'approssimazione delle serie di prezzi mediante funzioni di altri ordini? Per esempio, quella quadratica, che avete già menzionato.
Per favore, ditemi, applicate altre funzioni per l'approssimazione? Per esempio, funzioni armoniche, esponenziali, logaritmiche, di potenza (superiore al secondo ordine), ecc. Oppure, se applicato al mercato Forex, l'applicazione di due sole funzioni - lineare e quadratica - è sufficiente per un trading di successo in questo mercato?
Certo che puoi.
Con questo intendi il fatto che il concetto di livello (il suo valore dichiarato) è significativo solo per il momento attuale del tempo? E in qualche tempo i valori dei livelli cambieranno naturalmente, perché il canale, lungo il quale il prezzo si muove, passa una certa distanza e i limiti degli intervalli di confidenza saranno situati in altri luoghi in futuro.
Giusto. La coincidenza della zona pivot con uno dei livelli pivot aumenta notevolmente la precisione del calcolo.
E quale larghezza dell'intervallo di confidenza prendete per il calcolo di Hearst e per la ricerca generale di un campione ottimale?
Credo che il campione sia vero finché l'intervallo di confidenza del 99% non è rotto. Prendo anche in considerazione il 90 e il 95% - è spesso la fine di un pullback e il ripristino del thrend.
Ma comunque, quando costruite il primo intervallo, dovete impostare la sua larghezza, giusto?
Assolutamente - nelle deviazioni standard - il modo più universale.
Dimmi per favore, usi altre funzioni per l'approssimazione? Per esempio, armonico, esponenziale, logaritmico, potenza (superiore al secondo ordine), ecc. Oppure, se applicato al mercato Forex, due sole funzioni - lineare e quadratica - sono sufficienti per un trading di successo?
No - le funzioni armoniche sono un caso speciale della forma quadratica. E per il resto - vedi considerazioni sulla potenzialità del campo dei prezzi e non solo rispetto al mercato Forex - ovunque dove il campo dei prezzi è potenziale, cioè il profitto non dipende dalla traiettoria dei prezzi, ma solo dalla differenza tra i prezzi delle posizioni di apertura e chiusura.
Per quanto riguarda i criteri - metodologicamente, ho scritto: la traiettoria dei prezzi minimizza l'energia potenziale funzionale. Per maggiori dettagli, vedere .....
Buona fortuna e buone tendenze.
Ora il mio script trova i canali di regressione lineare che soddisfano il principio di irriducibilità, cioè RMS su tutto il campione del canale è inferiore a RMS di 2/3 del campione e principio di non campionamento sull'ultimo 1/3 per l'intervallo di confidenza del 99% (tutto è secondo le vostre raccomandazioni). Ma ora è sorta una piccola questione tecnica. Dato che ci sono diversi canali "veri" che operano nel momento attuale, ci sono regioni di dispersione per tali canali, come ovunque nella statistica. Cioè supponiamo che uno dei "veri" canali sia un canale di regressione lineare basato su un campione dal tempo corrente fino a 200 barre fa sul periodo H1. Se il campione varia per esempio nell'intervallo di 190-210 bar, le 2 condizioni sopra menzionate saranno pienamente soddisfatte. Guardiamo il valore RMS per questi campioni e selezioniamo il valore più piccolo. Secondo la vostra strategia, questo canale è applicabile per la previsione.
Poi ci spostiamo su un altro time frame, per esempio su M15. Stiamo cercando di trovare un canale simile nello stesso arco di tempo. E otteniamo il seguente risultato. Il canale ottimale (con la minima asimmetria) a M15 sembra essere un canale di regressione lineare ottenuto non su un campione di 800 barre (200*4) come sarebbe naturale, ma su un campione di 640 barre! Cioè, il dominio del tempo mi dà una varianza di campionamento fino al 25% (questo è il massimo - di solito meno). Anche per questo al momento attuale abbiamo differenze di circa 5-10 punti nella definizione degli stessi limiti dell'intervallo di confidenza. Poiché sembra che prendiamo come campione il prezzo medio della barra (O+H+L+C)/4 e non effettuiamo alcuna analisi di pattern, allora il time frame ottimale del canale tracciato per lo stesso intervallo di tempo a diversi timeframe deve essere lo stesso, giusto? O non è così e in questo caso dovremmo applicare anche metodi statistici di stima dei parametri? E l'intervallo di tempo per il canale ottimale ha anche una sua varianza, che può spiegare questa divergenza di campioni per il canale ottimale a diversi timeframe?
Di conseguenza, ho una domanda. Cosa fate in questa situazione? Su cosa si basa nei suoi calcoli? Per esempio, prendete un canale costruito su un timeframe più piccolo come base per il processo decisionale, o stimate i limiti dell'intervallo di confidenza in aggiunta facendo la media dei limiti del canale ottenuti su diversi timeframe? Cioè, se si calcola lo stesso canale su 4 timeframe (M5, M15, M30 e H1), la stima media dei limiti dell'intervallo di confidenza per lo stesso canale sarà probabilmente due volte più affidabile? E sarete in grado di fare affidamento su di esso in misura maggiore che sul calcolo del canale per un lasso di tempo separatamente? O forse avete un altro approccio? Anche se, forse, in questa situazione non si fa una media e si cerca solo il più vicino livello appropriato di Murray, come hai già detto?
Su quale orizzonte temporale eseguite i principali calcoli? Hai detto che il tuo programma calcola i dati per mezzo anno in 30-40 secondi. Suppongo che il timeframe non dovrebbe essere più piccolo di H1? È così?
Vladislav, per favore consiglia l'array std_dev[][]. Per quanto ho capito, questo array ha dimensione Nx2, dove N è un numero di canali calcolati. I valori delle celle possono essere i seguenti:
std_dev[n][0] - valore RMS per 2/3 del campione nel canale n
std_dev[n][1] - valore RMS per l'intero campione del canale n (RMS per la proiezione)
O mi sbaglio e questo array contiene qualcos'altro? Per esempio è possibile avere la terza cella std_dev[n][2] che conterrebbe il numero della barra iniziale per il campionamento.
A proposito, quali altre varianti possono essere usate per costruire proiezioni oltre a quella standard? La proiezione ripete la funzione che è stata presa come funzione approssimativa + i limiti degli intervalli di confidenza che ripetono la funzione approssimativa nella forma? Cos'altro vi viene in mente in questo campo? Io, per esempio, potrei supporre che una proiezione possa essere costruita a partire da dati ottenuti diverse battute fa. Sembra ancora più ragionevole in questo modo perché se effettuiamo la proiezione solo dal momento attuale, il prezzo distrugge alcuni canali che si sono formati diverse barre fa quando si avvicina alla zona di inversione e i canali rimanenti spostano i loro limiti di intervallo verso la zona di undershooting. In altre parole, se vediamo la zona di inversione e il prezzo è vicino ad essa, uno dei canali considerati "veri" non riuscirà a soddisfare una delle due condizioni. Come gestisce questo problema? Utilizza anche la previsione fatta diverse battute fa nella sua analisi della situazione attuale?