L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2812
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Se ne è parlato qui più di un anno fa, quando stavo scrivendo gli algoritmi RL.
Non voglio ancora tornare indietro, e nemmeno io.Questo accade quando ci sono molti stati agente, ad esempio nei giochi. Si hanno solo 2-3 stati di acquisto/vendita, ecc.
No, è così primitivo, altrimenti non sarebbe affatto in questa direzione.
Lo stato non è un acquisto/vendita, l'acquisto/vendita è un'azione, e lo stato è grosso modo il numero di cluster dell'ambiente corrente, e ogni cluster di stato ha la sua azione...
Ma l'azione non deve essere necessariamente primitiva come comprare/vendere, può essere il ragionamento dell'agente sul futuro per esempio....
Ad esempio, se compro ora a [i], e nella candela di trading[i+1] il prezzo scenderà, ma non al di sotto di un certo prezzo, aspetterò la prossima candela [i+2], ma se il prezzo scenderà ancora più in basso farò marcia indietro, altrimenti continuerò a comprare[i...20].
Questi sono ragionamenti non banali sul futuro e portano alla scoperta della poziya consapevole....
Ma esistono una miriade di combinazioni di opzioni di ragionamento di questo tipo, quindi per non doverle esaminare tutte, addestriamo una funzione Q, cioè l'agente prende in considerazione per il ragionamento solo le opzioni che hanno un buon valore Q ,
Il neurone o la matrice Q vengono addestrati in anticipo...
Ecco come la vedo io...
Lo schema di soluzione è semplice.
)))) sì, certo...
Ho paura di chi dice "è semplice".
No, è così primitivo, altrimenti non avrebbe questa direzione...
lo stato non è un bysel, il bysel è un'azione, e lo stato è grosso modo il numero di cluster dell'ambiente corrente, e ogni cluster di stato ha la sua azione...
Ma l'azione non deve essereprimitiva come un byte, può essere un pensiero dell'agente sul futuro, per esempio....
Ad esempio, se ora compro a [i], e nella candela di trading[i+1] il prezzo scenderà, ma non al di sotto di un certo prezzo, aspetterò la prossima candela [i+2], ma se il prezzo scenderà ancora di più farò marcia indietro, altrimenti continuerò a comprare[i...20].
Questi sono ragionamenti non banali sul futuro e portano alla scoperta della posizione realizzata....
Ma esistono una miriade di combinazioni di opzioni di ragionamento di questo tipo, quindi per non doverle esaminare tutte, addestriamo la funzione Q, cioè l'agente prende in considerazione per il ragionamento solo le opzioni che hanno un buon valore Q ,
Il neurone o matrice Q viene addestrato in anticipo...
Ecco come la vedo io...
Sono d'accordo, buy sell no trade non è uno stato. Ci sono una miriade di stati.))))))
Sono d'accordo, comprare vendere non commerciare non è uno stato. Ci sono un hulliard di stati.)))))
Non ci sono molti stati (se si tratta di un cluster).
Ci sono un'orda di opzioni per ragionare sulle azioni future.
ma il ragionamento è necessario per trovare le azioni più corrette in ogni stato, inoltre, dovrebbero essere riviste a ogni candela.
No, è così primitivo, altrimenti non avrebbe questa direzione...
lo stato non è un bysel, il bysel è un'azione, e lo stato è grosso modo il numero di cluster dell'ambiente corrente, e ogni cluster di stato ha la sua azione...
Ma l'azione non deve essereprimitiva come un byte, può essere un pensiero dell'agente sul futuro, per esempio....
Ad esempio, se ora compro a [i], e nella candela di trading[i+1] il prezzo scenderà, ma non al di sotto di un certo prezzo, aspetterò la prossima candela [i+2], ma se il prezzo scenderà ancora di più farò marcia indietro, altrimenti continuerò a comprare[i...20].
Questi sono ragionamenti non banali sul futuro e portano alla scoperta della posizione realizzata....
Ma esistono una miriade di combinazioni di opzioni di ragionamento di questo tipo, quindi per non doverle esaminare tutte, addestriamo la funzione Q, cioè l'agente prende in considerazione per il ragionamento solo le opzioni che hanno un buon valore Q ,
Il neurone o matrice Q viene addestrato in anticipo...
Ecco come la vedo io...
Quando si inizia a vedere bene, il fattore "wow" scompare.
Lei sta descrivendo la politica di un agente, un approccio su più fronti. Ho scritto tutto al riguardo. Sto scrivendo in un linguaggio da nerd per dare un senso alla cosa, e l'ho dimenticato.
Esattamente, è così primitivo.
Qui c'è una persona che prima di essere bannata aveva la bava alla bocca per quanto riguarda gli agenti).
Sono d'accordo, comprare vendere non commerciare non è uno stato. Ci sono un'infinità di stati.))))
Stati dell'agente, o azioni. Le suggerisco di passare un paio di mesi a leggere libri per capire ciò che ha scritto e giungere alle stesse conclusioni) senza la reazione dell'ambiente alle azioni dell'agente, non c'è nulla da ottimizzare, si fa tutto in un solo passaggio.