L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2813

 
mytarmailS #:
Se voglio penalizzare un agente per accordi non redditizi.
L'obiettivo è "negoziare ciò che si vuole, ma senza perdere operazioni, e stare sul mercato".

Come lo descriverebbe con i tag?
Una serie di segni senza perdite sulla storia, no? ) Etichettateli
Rl si occupa di trovare il percorso ottimale, se vogliamo, o di ottimizzazione. Potete farlo da soli o tramite lui. Non si tratta di trovare dei modelli super-duplicati là fuori.

Leggete Sutton, Barto, "Reinforcement Learning", è in russo. Va dai primitivi a tutto il resto. Poi arriverete a DQN

Lì troverete analogie con l'ottimizzazione genetica e la programmazione, per quanto mi ricordo.
 
Maxim Dmitrievsky #:
Stati dell'agente, o azioni. Le suggerisco di passare un paio di mesi a leggere libri per capire ciò che ha scritto e giungere alle stesse conclusioni) senza la reazione dell'ambiente alle azioni dell'agente, non c'è nulla da ottimizzare, si fa tutto in un solo passaggio.

Ci sono stati dell'ambiente, stati dell'agente, matrici di transizioni (politiche) dell'agente da uno stato all'altro, tenendo conto dei cambiamenti nell'ambiente. L'ambiente è statico, non cambia a causa delle azioni dell'agente. Pertanto, è necessario definire solo la matrice delle azioni dell'agente in un ambiente statico, cioè gli obiettivi. La marcatura degli obiettivi avviene in un unico passaggio.
Non ho ancora capito come descrivere manualmente lo stato della riga.))))))
 
Valeriy Yastremskiy #:
Sono ancora in difficoltà nel descrivere manualmente lo stato della riga.))))))
Futile
 
Maxim Dmitrievsky #:
Futile.
Niente da eccepire, ma affascinante)))))
 
Valeriy Yastremskiy #:
Nessuna discussione, ma affascinante)))))
Ci sono due stati: spostare gli incrementi medi verso l'alto o verso il basso.
 
Nessuno ha visto la mia data fissata?
 
Valeriy Yastremskiy #:
Sono ancora in difficoltà nel descrivere manualmente lo stato di una serie.))))))

Di recente mi sono imbattuto in un video che spiega l'approccio markoviano alla transizione di stato.
Non sto dicendo che questi stati debbano essere usati.
Sembrava solo che si potesse applicare questo concetto a tutti gli stati che si ritengono necessari.
Forse vi darà qualche altra idea.



Maxim non prendermi di nuovo in giro perché sono un indù))
Non ne ho incontrati altri)

 
Roman #:

Di recente mi sono imbattuto in un video che spiega l'approccio markoviano alla transizione di stato.
Non sto dicendo che si debbano usare questi stati in particolare.
Sembrava solo che si potesse applicare questo concetto a qualsiasi stato si ritenga opportuno.
Forse vi darà qualche altra idea.



Maxim non prendere di nuovo in giro il fatto di essere un indù))
Non mi sono imbattuto in nessun'altra cosa).

Si possono trovare articoli anche per la segmentazione delle serie temporali. È possibile sostituire il clustering con il clustering. Probabilmente ha senso addestrare modelli diversi per ciascuno degli stati, perché ci saranno caratteristiche diverse. Fondamentalmente, si tratta dello spostamento degli incrementi medi, al variare del quale i modelli si rompono.
 
Maxim Dmitrievsky #:
Può essere utilizzato per la segmentazione. Può sostituire il clustering.
Non è possibile, è diverso.

L'Hmm predice in quale cluster ci si trova ora, il clustering mostra in quale cluster ci si trovava, post-fatto.
In poche parole.
 
mytarmailS #:
Non è possibile, è diverso.

Hmm predice in quale cluster vi trovate ora, Clustering mostra in quale cluster eravate, post factum.
In poche parole.
E se ci pensate bene.