L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 55

 
Vadim Shishkin:

Aggiungo l'intrigo: non è necessario lanciare un cambiamento nel tasso di cambio di un oggetto scambiato.

È come trascinarsi per i capelli fuori da una palude.

Cercate anche altre fonti di dati.

Che Profit sia con voi!

:)

Se è questo che intendi? Beh, è una scoperta americana. Sarei felice di includere più informazioni, ma a parte la storia dei prezzi, è difficile trovare altro in questo volume.

E trascinare per i capelli è sbagliato: i dati contengono il segnale. E ce n'è abbastanza per coprire i costi e fare un profitto. È stato praticamente confermato, anche se sulla storia. E quelli che non possono estrarlo ballano con il tamburello. Ho un po' di esperienza nel vetro ma non sono ancora sicuro di poter fare qualcosa con loro.

 

***E' stanco, è stanco, è stanco.

Ci sarà uno stato?

 
Alexey Burnakov:

Suggerisco di leggere alcune buone note sulla costruzione di sistemi di trading da una posizione quantistica (un senior quant in un grande fondo di investimento). Le idee mi sembravano ragionevoli.

...

Su cosa sei d'accordo o in disaccordo? Cosa vorresti studiare meglio?

Beh, almeno con una rigorosa divisione in campioni di allenamento e di prova in base alle date, invece di una preliminare mescolanza casuale di campioni con uguale distribuzione nel campione generale e poi dividerlo in parti. Può succedere che una parte del campione contenga soprattutto tendenze verticali, mentre l'altra parte contiene tendenze laterali. Se applichiamo il mescolamento casuale, la probabilità di raccogliere modelli simili in diverse parti del campione diminuisce.

A proposito, un tale svantaggio è presente anche nel tester di strategia integrato di MetaTrader, cioè divide il campione di allenamento e il test in avanti rigorosamente per date. Di conseguenza, i cambiamenti di tendenza del mercato vicino alla linea di demarcazione possono portare a un sovrallenamento intenzionale.

 
Vadim Shishkin:
Ragazzo, vattene da qui.
 
Combinatore:
Ragazzo, vattene da qui.
È così? Non hai altro da dire oltre alla maleducazione, vero?
 
Alexey Burnakov:

In particolare, mi è piaciuto questo:

Quindi, si separa rigorosamente l'in-sample e l'out-of-sample; - si separa rigorosamente il training set e il validation set

ti accechi agli intervalli di date; - separi i dati esattamente in base alle date (prima del giorno X - formazione, dopo - convalida)

si usa Monte Carlo per evitare distorsioni del punto di partenza; - si generano diversi esiti della strategia di trading, quindi non si ottiene un adattamento dei punti di entrata-uscita.

e si provano vari trucchi di robustezza. - Applicare tecniche di robustezza.

Cos'altro fai per assicurarti di non ingannare te stesso?

Tutto sembra giusto (ma non ho provato tutto io), tranne il primo. Mi sembra che se si usa strettamente un set di dati di allenamento e si scelgono i predittori per esso, si ottiene un super-adattamento di questi predittori, che potrebbero non essere affidabili in altri intervalli di tempo. Ora creo un nuovo campione di addestramento e di convalida ogni volta prima di addestrare il modello quando seleziono i predittori. È meglio ricreare i campioni 3 volte e addestrare il modello e prendere la precisione media che usare sempre gli stessi campioni di addestramento e di convalida.

Mi piace quello sulle reti neurali di proteine :) . A volte, a causa di una topologia sfortunata, producono davvero risultati molto inadeguati.

 
Vadim Shishkin:

***E' stanco, è stanco, è stanco.

Ci sarà uno stato?

No. Bisogna essere più intelligenti per rendersene conto molto tempo fa. Qui c'è sviluppo.
 
Alexey Burnakov:
No. Bisogna essere più intelligenti per capirlo molto tempo fa. C'è uno sviluppo.
Sì. Potrebbe dire in quale anno è in corso lo sviluppo e dove si possono vedere i risultati? :)
 
Dr.Trader:

Tutto sembra giusto (ma non ho provato tutto io), tranne il primo. Mi sembra che se si usa strettamente un set di dati di allenamento e si adattano i predittori ad esso, si ottiene un overfitting di questi stessi predittori, che potrebbero non essere validi in altri periodi di tempo. Ora creo un nuovo campione di addestramento e di convalida ogni volta prima di addestrare il modello quando seleziono i predittori. È meglio ricreare i campioni 3 volte e addestrare il modello e prendere la precisione media che usare sempre gli stessi campioni di addestramento e di convalida.

Mi piace quello sulle reti neurali di proteine :) . A volte, a causa di una topologia sfortunata, producono risultati molto inadeguati.

Sì, mi piacerebbe molto vedere i loro risultati. Ho qualcosa da mostrare.

E tu?

Tuttavia, la domanda sembra essere retorica.

 
Vadim Shishkin:
Sì. Puoi dirmi quanti anni di sviluppo ci sono e dove posso vedere i risultati? :)
Diversi anni. Qui nel thread c'è il risultato.