L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 141

 
Dr.Trader:

Non so come farlo nel modo standard, ma così con la libreria:


Grazie mille!!! Conosci molto bene i pacchetti, mi è stato offerto di scrivere la classe format() da capo su un forum speciale sulla stessa domanda, e ho mostrato un esempio con ~ 300 righe di codice, ho già iniziato a pensare a stampelle di vario tipo, ed ecco una grande soluzione... grazie!

 

Un'altra domanda - ho tre dataframes con lunghezze leggermente diverse, perché le osservazioni sono state fatte in tempi diversi,

Come posso sincronizzarli per lasciare solo le osservazioni che sono in tutti e tre i fotogrammi e scartare quelle che si trovano solo in fotogrammi separati?

> head(sec1)
        date  time   open   high    low  close vol
1 2016.09.06 08:45 3081.5 3082.5 3080.5 3080.5   6
2 2016.09.06 08:50 3081.5 3081.5 3079.5 3080.5   6
3 2016.09.06 08:55 3081.5 3082.5 3081.5 3082.5  19
4 2016.09.06 09:00 3083.5 3083.5 3081.5 3082.5  19
5 2016.09.06 09:05 3083.5 3085.5 3082.5 3085.5   8
6 2016.09.06 09:10 3086.5 3086.5 3084.5 3086.5  15
> head(sec2)
        date  time  open  high   low close vol
1 2016.09.13 13:00 95.34 95.40 95.33 95.39  36
2 2016.09.13 13:05 95.40 95.43 95.39 95.41  40
3 2016.09.13 13:10 95.42 95.44 95.40 95.42  37
4 2016.09.13 13:15 95.41 95.42 95.39 95.39  25
5 2016.09.13 13:20 95.40 95.41 95.38 95.38  21
6 2016.09.13 13:25 95.39 95.42 95.38 95.42  32
> head(sec3)
        date  time    open    high     low   close vol
1 2016.09.14 18:10 1.12433 1.12456 1.12431 1.12450 137
2 2016.09.14 18:15 1.12444 1.12459 1.12424 1.12455 139
3 2016.09.14 18:20 1.12454 1.12477 1.12446 1.12469 148
4 2016.09.14 18:25 1.12468 1.12474 1.12442 1.12453 120
5 2016.09.14 18:30 1.12452 1.12483 1.12442 1.12482 156
6 2016.09.14 18:35 1.12481 1.12499 1.12472 1.12474 126
 
https://www.mql5.com/en/blogs/post/650079

Interessante. Migliorare una strategia esistente con l'apprendimento automatico. L'articolo soffre di una mancanza di informazioni sul campionamento, ma l'idea è interessante.
 
mytarmailS:

Un'altra domanda - ho tre dataframes con lunghezze leggermente diverse, perché le osservazioni sono state fatte in tempi diversi,

come possono essere sincronizzati nel tempo per lasciare solo le osservazioni che sono in tutti e tre i fotogrammi e scartare quelle che si verificano solo in fotogrammi separati

a testa alta sarebbe così:


a <- data.frame(c1 = c('a','b','c','d','e','f'), c2 = c(1,2,3,4,5,6))

b <- data.frame(c1 = c('a','b','c','d','e'), c2 = c(1,2,3,4,5))

c <- data.frame(c1 = c('b','c','d','e','f'), c2 = c(2,3,4,5,6))


a$concat <- do.call(paste0, a[1:2])

b$concat <- do.call(paste0, b[1:2])

c$concat <- do.call(paste0, c[1:2])


concat_vec <- append(unique(a$concat)

    , c(unique(b$concat)

    , unique(c$concat)))

concat_vec_tbl <- as.data.frame(table(concat_vec))

concat_vec_tbl <- concat_vec_tbl[concat_vec_tbl$Freq == 3, ]



a <- a[a$concat %in% concat_vec_tbl$concat_vec, ]

b <- b[b$concat %in% concat_vec_tbl$concat_vec, ]

c <- c[c$concat %in% concat_vec_tbl$concat_vec, ]

 
Alexey Burnakov:
https://www.mql5.com/en/blogs/post/650079

Interessante. Migliorare una strategia esistente con l'apprendimento automatico. L'articolo soffre di mancanza di informazioni sul campionamento, ma l'idea è interessante.
Buon articolo, anche io sto sperimentando il "SMM" ultimamente, ma in un modo più usuale.
 
Alexey Burnakov:

In testa sarà così:

grazie
 
Alexey Burnakov:
https://www.mql5.com/en/blogs/post/650079

Interessante. Migliorare una strategia esistente con l'apprendimento automatico. L'articolo soffre di mancanza di informazioni sul campionamento, ma l'idea è interessante.

Alexey!

Che persona interessante che sei!

Ho scritto qui un centinaio di volte che uso l'rf per migliorare le prestazioni del TS reale sugli indicatori, ma non hai risposto.

Inoltre, ho suggerito più volte che:

1. Prendete il vero TS.

2. Distinguiamo i problemi di TS e iniziamo a risolverli usando strumenti R

Nel mio caso citato ho usato rf per risolvere il problema del ritardo dell'indicatore, che di solito dà informazioni sulla barra 1 (-1), e rf dà informazioni una barra avanti. Per H4 sono 8 ore! Come risultato sono riuscito a diminuire considerevolmente il drawdown.

 
Alexey Burnakov:
https://www.mql5.com/en/blogs/post/650079

Interessante. Migliorare una strategia esistente con l'apprendimento automatico. L'articolo soffre di mancanza di informazioni sul campionamento, ma l'idea è interessante.

L'idea di questo articolo è implementata in modo leggermente diverso nell'articolo https://www.mql5.com/ru/articles/1628.

Mi chiedo se tutti leggono gli articoli sull'apprendimento automatico su questo sito con un anno di ritardo (domanda retorica).

Buona fortuna

Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль
Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль
  • 2016.03.31
  • //www.mql5.com/ru/users/vlad1949">
  • www.mql5.com
Статья является продолжением предыдущих статей по глубоким нейросетям и выбору предикторов. В ней мы рассмотрим особенность нейросети, инициируемой Stacked RBM, а также её реализации в пакете "darch".
 
SanSanych Fomenko:

Alexei!

Che persona interessante che sei!

Ho scritto qui un centinaio di volte che uso l'rf per migliorare le prestazioni del TS reale sugli indicatori, e non hai risposto.

Inoltre, ho espresso più volte l'idea che:

1. Prendete il vero TS.

2. Distinguiamo i problemi di TS e iniziamo a risolverli usando strumenti R

Nel mio caso citato ho usato rf per risolvere il problema del ritardo dell'indicatore, che di solito dà informazioni sulla barra 1 (-1), e rf dà informazioni una barra avanti. Per H4 sono 8 ore! Come risultato sono riuscito a diminuire considerevolmente il drawdown.

Ho capito. È solo difficile valutare la profondità di pensiero senza specifiche. E c'erano delle foto in quell'articolo. Anche Perervenko ne ha di simili. E ho letto anche il suo articolo.
 
Alexey Burnakov:
Ho capito. È solo che senza specifiche è difficile valutare la profondità del pensiero. E c'erano delle foto in quell'articolo. Anche Perervenko sembra così. E ho letto anche il suo articolo.

Bene, ecco l'offesa...

Il mio scopo è quello di orientare la conversazione in una direzione pratica, non di offendere nessuno in alcun modo...

Finora abbiamo pezzi sparsi.

Il tuo approccio accademico.... Per me il valore dei vostri calcoli è indiscutibile, ma .... Ho espresso i miei dubbi sopra.

Sto seguendo da vicino il lavorodi Vladimir Perervenko, non ho mai visto alcuna prova che i modelli non vengono riqualificati. L'ultimo link. L'importanza delle variabili è determinata da un algoritmo ad albero. Ma gli alberi, a causa della convenienza dei valori di rumore disponibili, tendono ad usare questi predittori di rumore più spesso e come risultato il rumore salta fuori nella stima dell'importanza...

Quindi dobbiamo iniziare con algoritmi per rimuovere i predittori di rumore. Tutti gli altri passi senza questi non sono di alcuna utilità pratica, poiché tutte le stime dei modelli non possono essere estrapolate nel futuro.

Poi addestrare un modello in finestre, e la larghezza della finestra deve essere giustificata in qualche modo. Utilizzando poi il modello addestrato in una preselezione di predittori per la finestra di lavoro....

Qualcosa del genere.