L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 923

 
Aleksey Vyazmikin:

Volevo guardare ora i tuoi dati per l'addestramento del modello, per esercitarmi a cercare i parametri dell'albero. Ma non sono riuscito a trovare i file, si sono persi in una ventina di pagine. Li posti di nuovo qui per favore?

 
Ildottor Trader:

Volevo guardare ora i tuoi dati per l'addestramento del modello, per esercitarmi a cercare i parametri dell'albero. Ma non sono riuscito a trovare i file, si sono persi in una ventina di pagine. Potrebbe allegarli di nuovo qui, per favore?

Certo che puoi, ma devo farlo in parti (glitch del server), Filter set - rileva dove non è permesso comprare/vendere, MaloVhodov set - entrate di tendenza per un profitto decente, MnogoVhodov set - tutte le entrate tranne quelle in perdita.

Non sono stato in grado di insegnare all'albero a lavorare fuori dal campione. Tra i predittori che hanno influenzato in modo sicuro il set MaloVhodov - target -1 ho individuato i seguenti:

arr_iDelta_H4

arr_iDelta_D1

arr_iDelta_MN1

arr_TimeH

arr_Den_Nedeli

arr_iDelta_Max_D1

arr_iDelta_Min_D1

arr_Regretario

arr_LastBarPeresekD_Down

arr_LastBarPeresekD_Up_M15

arr_LastBarPeresekD_Down_M15

arr_DonProc_M15

File:
Filter.zip  3502 kb
 
continuazione ora impostata - MaloVhodov
File:
MaloVhodov.zip  3471 kb
 
continuazione ora impostata - MnogoVhodov
File:
MnogoVhodov.zip  3500 kb
 

1.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287

2.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9

Può essere utile per l'articolo di Vladimir. Per i compiti continui tutto ciò che precede la DDPG è irrilevante, poiché ci sono metodi tabellari per un numero limitato di stati/transizioni

Introduction to Various Reinforcement Learning Algorithms. Part I (Q-Learning, SARSA, DQN, DDPG)
Introduction to Various Reinforcement Learning Algorithms. Part I (Q-Learning, SARSA, DQN, DDPG)
  • 2018.01.12
  • 黃功詳 Steeve Huang
  • towardsdatascience.com
Reinforcement Learning (RL) refers to a kind of Machine Learning method in which the agent receives a delayed reward in the next time step…
 
Maxim Dmitrievsky:

1.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287

2.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9

Vladimir può essere utile per l'articolo. Tutto ciò che precede DDPG è irrilevante per l'articolo, poiché esistono metodi tabellari per un numero limitato di stati/transizioni

Grazie. L'ho messo tra i preferiti. Finirò con gli ensemble (un altro articolo) e mi preparerò su RL

Buona fortuna

 
Maxim Dmitrievsky:

Prova:

Dopo l'addestramento abbiamo una tale tabella: (dal 04.01 OOS)


L'agente 7 evidenziato in giallo ha gli errori più piccoli. Eliminiamo tutti tranne lui e vediamo:

Il risultato è migliorato.

Fico! Ora (un giorno o due? prima? come va...) finisco un'idea e arrivo al tuo articolo!

 
Aleksey Vyazmikin:

Fico! Ora (un giorno o due? prima? a seconda dei casi...) finisco un'idea e arrivo al tuo articolo!

Sarebbe bello, perché le persone con cui ho parlato non hanno offerto alcuna idea, hanno solo usato quello che gli è stato dato

e il brainstorming è sempre utile

 
Ildottor Trader:

Insegna a Max come invertire i segnali TS :)

Perché la sua sterlina è rigorosamente in meno, mentre il trading al contrario sarebbe in più.

Capisco - NS è un TS supersampling

Ma comunque, il broker forex sa in anticipo dove il TS sarà comprato e dove sarà venduto

Quindi tutto va secondo i piani e non serve a niente lanciare o non lanciare.

 
Renat Akhtyamov:

Tuttavia, la quotazione è ancora a priori consapevole di dove il TS sarà comprato e dove sarà venduto

l'hai scoperto?