Regressione bayesiana - Qualcuno ha fatto un EA usando questo algoritmo? - pagina 41

 
Vizard_:
È così che, lentamente, siamo arrivati all'affascinante argomento delle trasformazioni)))) perché se non esiste una distribuzione normale, è possibile crearne una.
Ci vorrà molto tempo, perché c'è bisogno sia della ritrasformazione che... E a Box-Cox non piace molto)))) È solo un peccato che se non hai
È solo un peccato che se non hai buoni predittori, non avrà molto effetto sul risultato finale...

Prima vorrei vedere un barlume di comprensione negli occhi dei "fedeli". E poi, sì, convertire se necessario. Se le code spesse possono essere convertite, questa è la domanda. Possono fare una grande differenza nella qualità.

 
Alexey Burnakov:

Prima vorrei vedere un barlume di comprensione negli occhi dei "fedeli". E poi, sì, convertire se necessario. Se le code spesse possono essere convertite è la domanda. Possono avere un grande impatto sulla qualità.

Ci sono regressioni per le code spesse, a memoria FARIMA.

Ma torniamo alla grandezza dell'incremento.

Cosa stiamo scambiando? Un incremento di 7 pip a ore 1 rispetto alla barra precedente? Non lo capisco molto bene. Qualcuno può illuminarmi?

L'incremento può essere scambiato, più precisamente, la volatilità, ma rispetto a qualche serie stazionaria - si chiama cointegrazione.

 
Vorrei che qualcuno prendesse seriamente in considerazione gli input )
 
СанСаныч Фоменко:

Ci sono regressioni per le code spesse, a memoria FARIMA.

Ma torniamo alla grandezza dell'incremento.

Cosa stiamo scambiando? Un incremento di 7 pip sull'indicatore dell'ora rispetto alla barra precedente? Non lo capisco molto bene. Qualcuno può illuminarmi?

L'incremento può essere scambiato, più precisamente, la volatilità, ma rispetto a qualche serie stazionaria - si chiama cointegrazione.

E cosa scambiate se non gli incrementi?
 
Комбинатор:
Vorrei che qualcuno prendesse seriamente in considerazione i dati di input )

Ho pensato. Seriamente )

Per prima cosa, genero tutti gli input che mi vengono in mente. Poi seleziono quelli più rilevanti per una particolare variabile obiettivo e cestino il resto. Sembra aiutare, ma dipende dal metodo di allenamento.

Nell'esperimento che ho condotto, ho fatto quanto segue. Per prima cosa ho pensato a quali informazioni il sistema avrebbe dovuto vedere. Ma è tutto soggettivo. Ho anche scelto dei predittori informativi prima dell'allenamento, ma ha funzionato:

train_set <- dat_train_final[, c(eval(inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(inputs), eval(outputs[targets]))]
        
        input_eval <- gbm(train_set[, 109] ~ .
                       , data = train_set[, 1:108]
                       , distribution = "laplace"
                       , n.trees = 100
                       , interaction.depth = 10
                       , n.minobsinnode = 100
                       , bag.fraction = 0.9
                       , shrinkage = 0.01
                       , verbose = T
                       , n.cores = 4)
        
        best_inputs <- as.character(summary(input_eval)[[1]][1:10])
        
        train_set <- dat_train_final[, c(eval(best_inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(best_inputs), eval(outputs[targets]))]

Commenterò. Per prima cosa mi sono allenato su un modello debole, non riqualificante, con tutti i predittori disponibili. È importante che il modello non abbia il tempo di riaddestrarsi. Poi ho preso i 10 più importanti.

Non solo questo non ha ridotto i risultati al rumore, ma ha anche accelerato l'allenamento di un fattore 10.

Questo è un modo di vedere la cosa.

 
Alexey Burnakov:
Cosa scambiate se non gli incrementi?

Trend in cui long e short sono di interesse.

Ordini nel terminale: COMPRA, VENDI.

 
Комбинатор:
Vorrei che qualcuno prendesse seriamente in considerazione i dati di input )

Pensandoci, fornisco anche un servizio a pagamento per ripulire i set di predittori di input dai predittori di rumore per i modelli di classificazione. Questo lascia un set che non genera modelli sovrallenati. È vero, dovremmo chiarire: se rimane qualcosa. C'è una cosa paradossale: per il trading di tendenza tutte le molte varietà di salviette sono senza speranza.

Tra i set che ho elaborato:

  • Riducendo la lista originale dei predittori di un fattore da 3 a 5.

Questo lascia 20-25 predittori che possono essere trattati in futuro

  • Da questo insieme di predittori su ogni barra scelgo un sottoinsieme con mezzi standard di R
  • rimangono 10-15 predittori, sui quali il modello è addestrato
  • è possibile non fare l'ultima selezione dei predittori numero approssimativo di barre uguale alla finestra, ma la finestra è entro 100

Risultato: il modello non viene riqualificato, cioè l'errore di classificazione in formazione, AOB e fuori campione è approssimativamente uguale.

 
Amico, i figli del mais della normalità/normalità sono alcuni.
 
due threads paralleli che discutono la stessa cosa - selezionare i predittori per il modello
 
СанСаныч Фоменко:

Trend in cui long e short sono di interesse.

Ordini nel terminale: COMPRA, VENDI.

Questo è lo stesso! Aumenti trasformati in segni + o -. E si può prendere questo segno per incrementi di un'ora avanti.

Qual è la domanda?