L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 655
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Anch'io ci ho pensato molto.
Se il modello di regressione predice i guadagni di prezzo per barra e il punteggio R2 è superiore a zero su fronttest e backtest, questo è già un buon inizio. Il problema è che il risultato, anche se stabile, è piccolo, lo spread non può essere battuto.
Analiticamente, il problema è che R2 penalizza il modello più pesantemente per i grandi errori e ignora i piccoli errori e le direzioni sbagliate degli scambi. Se guardate la distribuzione dei guadagni, la maggior parte dei movimenti di prezzo sono solo un paio di pip. E il modello, invece di prevedere la direzione corretta di questi piccoli movimenti, impara a prevedere le code lunghe della distribuzione per le quali otterrà un R2 più alto. Di conseguenza, il modello può in qualche modo prevedere i grandi movimenti ma su quelli piccoli sbaglia sempre la direzione e perde lo spread.
Conclusione - le stime di regressione standard per il forex sono cattive. È necessario creare una funzione di fitness di qualche tipo, in modo che vengano prese in considerazione entrambe le direzioni degli scambi, così come lo spread e la precisione. Allora anche con una precisione di poco più del 50% c'è una possibilità di guadagno.
La precisione, il rapporto Sharp, il fattore di recupero e altre funzioni che analizzano i grafici commerciali sono troppo discreti, la neuronica con un backprop standard non uscirà dal minimo locale e non può imparare correttamente.
Una conclusione alternativa è quella di ignorare completamente i segnali deboli del neurone. Commercio solo su quelli forti. Il problema è che possiamo sempre definire la soglia che dà buoni risultati sul backtest, ma non darà buoni risultati sul fronttest. Anche qui, dobbiamo pensare a qualcosa.
Eppure, l'idea stessa di usare modelli di regressione per l'apprendimento automatico sembra molto discutibile. E soprattutto per la previsione incrementale. E doppiamente per i NS, che sono nel senso di una scatola nera con alcuni strati e perseptroni. Che significato economico o statistico hanno queste parole?
Dopo tutto, non è per niente che i modelli GARCH sono utilizzati per gli incrementi. e sono i più comuni al momento. L'idea di base di superare la non stazionarietà decomponendo le serie non stazionarie in componenti, che hanno un senso economico e statistico abbastanza significativo, è molto attraente.
In GARCH il modello consiste nei seguenti passi:
Tutto un lavoro significativo e denso di significato.
Se aggiungiamo la possibilità di aggiungere regressori esterni, otteniamo uno strumento abbastanza ricco, purtroppo estremamente vario e quindi laborioso.
Qual è il problema?
https://www.quantstart.com/articles/ARIMA-GARCH-Trading-Strategy-on-the-SP500-Stock-Market-Index-Using-R
copia-incolla e fperet
su quale base?
Eppure, l'idea stessa di usare modelli di regressione per l'apprendimento automatico sembra molto discutibile. E questo è particolarmente vero per la previsione incrementale. E doppiamente per i NS, che sono nel senso di una scatola nera con alcuni strati e perseptroni. Che significato economico o statistico hanno queste parole?
Dopo tutto, non è per niente che i modelli GARCH sono utilizzati per gli incrementi. e sono i più comuni al momento. L'idea di base di sconfiggere la non stazionarietà decomponendo una serie non stazionaria in componenti che hanno un significato economico e statistico abbastanza significativo è molto attraente.
Ti sbagli SanSanych. NS è una specie di equivalente della logica fuzzy. Imparabile. Personalmente, non ci vedo nulla di misterioso. Si possono usare altre analogie.
Bene, e la non stazionarietà. Qualsiasi processo, se scomposto in pezzi, diventerà non stazionario, e se non lo è, non sarà casuale.
A proposito, dall'aspetto delle distribuzioni su diversi tratti lunghi (diversi oltre 3 mesi) non ho notato alcuna differenza significativa tra i due.
Per quanto riguarda il senso economico - beh, non lo so. Presumo che il mercato sia casuale per l'osservatore. Che sia effettivamente casuale o meno non ha molta importanza. La parola chiave qui è per l'osservatore.
Qual è il problema?
https://www.quantstart.com/articles/ARIMA-GARCH-Trading-Strategy-on-the-SP500-Stock-Market-Index-Using-R
copia-incolla e fperet.
Lei è un uomo interessante! Si scopre che tu sai tutto!
su quale base?
Ho il registro, che differenza fa?
Ho il registro, che differenza fa?
Perché il logaritmo in questo caso non elimina gli outlier: il calcolo degli incrementi con n-lag elimina gli outlier.
il logaritmo centra semplicemente il grafico rispetto a 0
e per sbarazzarsi degli outlier per logaritmo, bisogna introdurre una scala logaritmica.
incrementi semplici
logaritmo degli incrementi (naturale)
perché il logaritmo in questo caso non evita gli outlier: calcolando gli incrementi con n-lag si evitano gli outlier
Il logaritmo centra semplicemente il grafico rispetto a 0.
e per sbarazzarsi di outlier per logaritmo è necessario introdurre una scala logaritmica
incrementi semplici
logaritmo degli incrementi (naturale).
Le emissioni sono una cosa complicata. Le emissioni troppo grandi sono meglio sostituite da un massimo più accettabile.
Non è possibile sbarazzarsi completamente delle emissioni. Ma per minimizzare il loro impatto sulla distribuzione non solo può e deve essere fatto da logaritmo.
Se prendiamo un caso ipotetico con le citazioni adiacenti 10 e 2
10/2 = 5
log (10/2) = 0,69
Perché il logaritmo in questo caso non evita gli outlier: calcolando gli incrementi con n-lag si evitano gli outlier.
n-lag è un aumento di TF, e maggiore è il TF, maggiore è l'incremento.
Il tuo lag 50 è n8, solo più preciso nel senso che il tuo TF=8 ore inizia ogni minuto, a differenza del grafico regolare.
Le emissioni sono una cosa complicata. È meglio sostituire le emissioni troppo alte con un massimo più accettabile.
Non è possibile sbarazzarsi completamente delle emissioni. Ma non è solo possibile ma necessario ridurre la loro influenza sulla distribuzione e lo si fa con il logaritmo.
Se prendiamo un caso ipotetico con le citazioni adiacenti 10 e 2
10/2 = 5
log (10/2) = 0,69
bene, avete trovato la potenza di e per ottenere il valore dell'incremento iniziale
ma non ti sei sbarazzato degli outlier.
Ho citato 2 immagini sopra