L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1002

 
Alexander_K2:

Quindi, c'è l'opinione che la sequenza dei rendimenti (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) sia una serie stazionaria.

Un retournee di una candela è (close-open)/open, è chiaro il cazzo che non è un prezzo pulito da mettere in NS, il prossimo retournee è previsto da quello precedente (con una finestra diversa) molto male, non abbastanza per uno spread, ma apparentemente questo è tutto quello che possiamo ottenere

 
Alexander_K2:

In sostanza, il valore CLOSE[i]-OPEN[i] non è altro che la somma degli incrementi.

Una sequenza di tali valori dovrebbe, al limite, tendere a una distribuzione normale.

Ebbene, c'è l'opinione che la sequenza dei rientri (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) sia una serie stazionaria.

Qualcuno ha provato una cosa del genere sull'ingresso NS e quali sono stati i risultati?

Close[i] può essere sostituito con Open[i+1], in Forex è vero in più del 90% dei casi. Oppure può essere solo uno o due pip diversi. Allora ci sarà solo una serie temporale nella formula, è più conveniente.

Tale trasformazione è usata nel modello ARIMA. E serve davvero a raggiungere la stazionarietà, ma ci sono molte più trasformazioni, non è l'unica formula.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
L'ARIMA è ormai superato, nei mercati finanziari se dà qualcosa, non è più dell'interesse bancario su un deposito. GARCH è molto meglio secondo gli articoli, inoltre è ARIMA più varie aggiunte.
 
Alexander_K2:

Una sequenza di tali valori dovrebbe, al limite, tendere verso una distribuzione normale.

Non ho visto prezzi che tendono a una distribuzione normale. Ho sempre avuto guadagni che assomigliavano a Laplace, con code di koshi.

 

Questo era il mio ragionamento teorico.

In pratica, naturalmente, i primi rientranti non hanno Gauss, e nessuno è mai riuscito ad ottenerlo, e non ci riuscirà mai, ahimè...

Ancora stavo parlando della sequenza (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]), cioè in realtà delsecondo ritorno.

Beh, non ho ancora prestato molta attenzione a questi secondi ritorni, e avrei dovuto farlo.

 

E Kolmogorov, in generale, vedo, prestava particolare attenzione a B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])] e rifiutava di prevedere qualcosa se questa funzione non era del tutto definita.

Forse ha senso porre certe condizioni al lavoro dei NS?

Diciamo, saltare pezzi instabili di BP, esplorando, per esempio, i secondi ritorni o B(k)?

 

Ciao!

Cari guru, avete già creato un superbot?

Mi piacerebbe provarlo sul serio.

 
Alexander_K2:

E Kolmogorov, in generale, vedo, prestava particolare attenzione a B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])] e rifiutava di prevedere qualcosa se questa funzione non era del tutto definita.

Forse ha senso porre certe condizioni al lavoro dei NS?

Diciamo, saltando pezzi instabili di BP esplorando i secondi ritorni o B(k), per esempio?

Quindi c'è un limite: (Sigma al quadrato).

La determinazione di questo limite è il primo dei problemi risolti in questo

problema da risolvere in questo documento.

Per quanto riguarda il problema dell'interpolazione, consideriamo solo il

il caso della valutazione di x(/) per le quantità

-x{t + i)Jx{t + 2)1 ...,x(t + n),

x(t - l), x(t~2), ... , x(t - ha).

Per questo caso denotiamo con oj (ha) il valore minimo dell'aspettativa matematica

aspettativa

a2 = MI0-<?)%

dove Q è una forma lineare:

Q = axx {t + i) + atx {t + 2)+ ... +apx {t + n) +

+ a-ix(t - l)-\-a-2%(t - 2)+ ... -a-nx(t - ha)

con coefficienti reali costanti come.

All'aumentare di ha, il valore di a2 (i) non aumenta. Quindi esiste

limite

l im a} (ha) = o? (5)

P~>o

Il nostro secondo problema è determinare un]. La seguente proposta

soluzione dei due problemi formulati sopra è stato riportato senza

prova nella mia nota (*) *. Si basa su nozioni relative a

alla teoria spettrale dei processi casuali stazionari.

La teoria spettrale dei processi casuali stazionari è stata

costruito da A. Я. Hinchin per il caso di cambiamento continuo dell'argomento temporale t (2 ).

argomento t (2 ) .

Non capisco, pensate di stimare analiticamente l'affidabilità della previsione già fatta, o di fare una previsione per cominciare. Le prime due pagine dicono che l'articolo riguarda la stima dell'affidabilità di una previsione. Le previsioni stesse si trovano inA.J. Hinchin.

E lei non ha copiato attentamente l'affermazione di base dell'articolo.

Non: B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])

A: B(j)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i])

Inoltre, penso che sia più corretto:

Forum sul trading, sistemi di trading automatico e strategie di test

L'apprendimento automatico nel trading: teoria e pratica (Trading e oltre)

Dr. Trader, 2018.07.06 02:37

Close[i] può essere sostituito da Open[i+1], in forex è vero in più del 90% dei casi. O una differenza di pochi pip. Allora ci sarà solo una serie temporale nella formula, è più conveniente.

Tale trasformazione è usata nel modello ARIMA. E serve a raggiungere la stazionarietà, ma ci sono molte altre trasformazioni, non è l'unica formula.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
L'ARIMA è già obsoleto, nei mercati finanziari, semmai non darà più dell'interesse bancario su un deposito. GARCH è molto meglio secondo gli articoli, inoltre è ARIMA, più varie aggiunte.

PS.

Sì, e grazie per la risposta alla mia domanda del mio post: https://dxdy.ru/post1244134.html#p1244134

Рекуррентная формула для синуса : Дискуссионные темы (М) - Страница 7
  • dxdy.ru
В принципе, используется и рекуррентное вычисление через возвратное уравнение второго порядка, и через комплексную экспоненту. Первое менее расходно по ресурсам (умножение и два сложения и две ячейки памяти) по сравнению со вторым (два умножения, четыре сложения, две ячейки памяти при постоянной частоте), но накапливается погрешность быстрее...
 
Ciao, è Misha che parla, e come avete capito sto facendo questo dal mio telefono :-)
Lo so, penso che la pre-elaborazione dei dati venga in primo piano al giorno d'oggi. Naturalmente l'algoritmo di ottimizzazione è importante in sé, ma un buon campione di allenamento non è l'ultima cosa. Stavi lodando e criticando l'ottimizzatore di Reshetov, ma tra l'altro fa buoni modelli quando i dati sono ben pre-elaborati. In ogni caso con 10 ottimizzazioni almeno la metà dei modelli funzionerà. Dopo tutto non è così facile da attuare nel suo caso. E penso che JPrediction sarà sempre rilevante. La cosa principale qui è preprocessare correttamente i dati ed è in questo settore che la competizione è in corso.
 
Come ho detto in un altro thread .... Ci sto lavorando ora e ho già implementato almeno due passi di preprocessing. Il primo rimuove i predittori spazzatura. Il secondo rende il campione più presentabile per la formazione e vorrei concentrarmi sul secondo punto.
Dopo l'esercizio di rappresentatività, la qualità dell'apprendimento è aumentata del 15% per lo stesso set di dati. L'obiettivo principale è quello di aumentare il periodo di apprendimento mantenendo lo stesso livello di qualità dell'apprendimento. Esempio: con 25 esempi, sono riuscito a passare dall'80 per cento di generalizzabilità al vostro. Elaborando la rappresentatività su 40 esempi ho potuto ottenere il 90% della qualità del modello. Credo che il miglior modello sia quello che può essere addestrato su un campione più lungo mantenendo la sua qualità di formazione.
 
Gramazeka1:
Ciao, è Misha che parla, e come avete capito lo sto facendo dal mio telefono :-)
Lo so, penso che la pre-elaborazione dei dati venga in primo piano al giorno d'oggi. Naturalmente l'algoritmo di ottimizzazione è importante in sé, ma un buon campione di allenamento non è l'ultima cosa. Stavi lodando e criticando l'ottimizzatore di Reshetov, ma tra l'altro fa buoni modelli quando i dati sono ben pre-elaborati. In ogni caso con 10 ottimizzazioni almeno la metà dei modelli funzionerà. Dopo tutto non è così facile da attuare nel suo caso. E penso che JPrediction sarà sempre rilevante. La cosa principale qui è preprocessare correttamente i dati ed è in quest'area che la competizione è in corso.

Ciao Misha!

Sì, è il momento di riconsiderare tutti gli sforzi della rete neurale e le loro scarse speranze per lo strumento stesso. Niente aiuterà - né le foreste, né le steppe - se i dati di ingresso non sono preparati.

E sì - non c'è concorrenza, c'è un problema e c'è un generale scempio.

Se sai come preparare i dati, vai avanti. L'umanità vi ringrazierà.