L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3163

 
Ivan Butko #:

Opinione sul tentativo di insegnare il forex insegnando agli agenti a giocare.

C'è qualche pesce che ha provato qualcosa di simile, qualche esperienza.
Questo è un tipico problema di RL o deepRL o di ottimizzazione.
In sostanza è la stessa cosa, ma diversa)
 
Forester #:

Ho trovato un altro problema.
Ho trovato una buona variante con allenamento una volta alla settimana su 5000 linee di M5 (3,5 settimane). E ho deciso di spostare tutti i dati su 300 linee - come se l'allenamento non avvenisse il sabato, ma il martedì. Di conseguenza, il modello su OOS da redditizio è diventato non redditizio.
Queste nuove 300 linee (circa l'8% del totale) hanno fatto emergere altri chip e altri split, che sono diventati migliori per i dati leggermente modificati.
Ripetuto lo spostamento di 300 righe per 50000 righe. Sembrerebbe solo lo 0,8% delle nuove righe. Ma anche i cambiamenti sull'OOS sono significativi, anche se non così forti come con 5000 righe.

In generale si nota un adattamento non solo alla dimensione della finestra, ma anche all'inizio della finestra. Piccoli offset fanno una grande differenza nel risultato. Non ci sono caratteristiche forti, tutto è al limite del 50/50 ± 1-2%.

Questo sembra essere un problema comune agli alberi: la mancanza di robustezza.

C'è una flebile speranza che sia possibile un miglioramento passando a regole di divisione più elaborate (in termini di matstat). Si tratta di qualcosa di simile agli stessi "alberi di differenza" di cui ho fornito un link a un articolo di recente. O qualcosa come la statistica chi-quadro CHAID.

Naturalmente, questa non è una panacea e non è detto che questi esempi specifici di regole di divisione funzionino per noi. Ma è un esempio del fatto che le regole di divisione possono e devono essere trattate in modo creativo.

L'idea principale da trarre da matstat è quella di interrompere la crescita dell'albero quando si raggiunge un valore p critico, non per ragioni di sinistra.
 
Forester #:

Ho trovato un altro problema.
Ho trovato una buona variante con allenamento una volta alla settimana su 5000 linee di M5 (3,5 settimane). E ho deciso di spostare tutti i dati su 300 linee - come se l'allenamento non avvenisse il sabato, ma il martedì. Di conseguenza, il modello su OOS da redditizio è diventato non redditizio.
Queste nuove 300 linee (circa l'8% del totale) hanno fatto emergere altri chip e altri split, che sono diventati migliori per i dati leggermente modificati.
Ripetuto lo spostamento di 300 righe per 50000 righe. Sembrerebbe solo lo 0,8% delle nuove righe. Ma anche i cambiamenti sull'OOS sono significativi, anche se non così forti come con 5000 righe.

In generale si nota un adattamento non solo alla dimensione della finestra, ma anche all'inizio della finestra. Piccoli offset fanno una grande differenza nel risultato. Non ci sono caratteristiche forti, tutto è al limite del 50/50 ± 1-2%.

Quale modello?

 
СанСаныч Фоменко #:

Quale modello?

in legno
 
Forester #:
legno
È necessario trovare un coreset che abbia un modello e allenarsi solo su di esso. Può essere su qualsiasi pezzo del grafico, può essere trovato attraverso l'overshooting. Altrimenti, il rumore non permette al modello di concentrarsi. La tendenza attuale è quella dei coreset, piccoli sottocampioni rappresentativi. È abbastanza semplice e dà risultati.
 

Interessante articolo sugli alberi e l'apprendimento per rinforzo in .....

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/

============================

idea principale

2.2 Motivazione

In breve, il modello ad albero con apprendimento per rinforzo (RLT) proposto è un modello tradizionale di foresta casuale con un tipo speciale di selezione delle variabili di separazione e di soppressione delle variabili di rumore. Queste caratteristiche sono rese disponibili dall'implementazione del meccanismo di apprendimento per rinforzo in ogni nodo interno. Consideriamo innanzitutto un esempio di scacchiera che dimostra l'impatto dell'apprendimento per rinforzo: Supponiamo che X ~ uni f [ 0, 1 ] p e E ( Y | X ) = I { I ( I ( X (1) 0 .5) = I ( X (2) >0 .5)} La difficoltà nello stimare questa struttura utilizzando le solite foreste casuali è che nessuna delle due variabili forti mostra effetti insignificanti.La ricompensa immediata , cioè la riduzione degli errori di previsione, derivante dal partizionamento in queste due variabili è asintoticamente identica alla ricompensa ottenuta dal partizionamento in una delle variabili di rumore. Pertanto , quando p è relativamente grande, è improbabile che X (1) o X (2) vengano scelte come variabili di separazione. Tuttavia, se sappiamo in anticipo che la suddivisione su X (1) o X (2) produrrà significativi vantaggi futuri per le suddivisioni successive, potremmo forzare con sicurezza la suddivisione su una delle due variabili, indipendentemente dalle ricompense immediate.

=========================

Bene, e pacchetto su R di conseguenza

https://cran.r-project.org/web/packages/RLT/RLT.pdf

Reinforcement Learning Trees
Reinforcement Learning Trees
  • www.ncbi.nlm.nih.gov
In this paper, we introduce a new type of tree-based method, reinforcement learning trees (RLT), which exhibits significantly improved performance over traditional methods such as random forests (Breiman, 2001) under high-dimensional settings. The innovations are three-fold. First, the new method implements reinforcement learning at each...
 
Forester #:
in legno

Qual è il nome esatto? O è fatto in casa?

Ho utilizzato diversi modelli "in legno" per molti anni e non ho mai visto nulla di simile.

 
mytarmailS #: Tuttavia, se sappiamo in anticipo che la divisione su X (1) o X (2) produrrà significativi vantaggi futuri per le divisioni successive, potremmo forzare con sicurezza una divisione su qualsiasi variabile, indipendentemente dalle ricompense immediate.

Posso forzarla, ma non so con quale scheda si dovrebbe X1, X2, o X157

 
СанСаныч Фоменко #:

Qual è il nome esatto? O è fatto in casa?

Ho utilizzato diversi modelli "in legno" per molti anni e non ho mai visto nulla di simile.

Fatto in casa. Le possibilità di esperimento non sono limitate....
 
Maxim Dmitrievsky #:
È necessario trovare un coreset che abbia un modello e allenarsi solo su di esso. Può essere su qualsiasi pezzo del grafo, viene cercato attraverso l'enumerazione. Altrimenti, il rumore non permette al modello di concentrarsi. La tendenza attuale è quella dei coreset, piccoli sottocampioni rappresentativi. È piuttosto semplice e produce risultati.

Come si effettua la ricerca? Passare in rassegna tutti i pezzi (ad esempio 100 per 5000 pp) e vedere quanto successo hanno le altre 500.000 righe di quel modello nel predire le altre 500.000 righe?