L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2042
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
A proposito, avete visto un generatore che emette casualmente un numero da un array senza ripetizioni - è esattamente quello di cui ho bisogno.
Dovresti entrare nel generatore con una condizione per controllare se c'era un prossimo casuale e in questo modo la qualità del generatore sarà immediatamente visibile.
Ho ottenuto più alberi, abbastanza bene - sul campione d'esame la precisione è più del 60%.
Si scopre che tutto lo stesso tempo di trovare il commercio, gli stop e l'uscita sono intrecciati, il che è logico - se il commercio è già lungo, gli stop non vengono eliminati, probabilmente dal fatto che sono grandi...
Devo allegare i modelli?
Sì, attaccateli.
Mi aspetterei che dipendesse dal giorno di entrata della settimana, dall'ora di entrata, dallo SL e dal TP.
Dovremmo eseguire il sistema per tempo di uscita nel tester, e vedere cosa succede. Anche se il tempo di uscita e la durata sono parametri indiretti e diventano noti solo quando lo SL o il TP scatta. Dovremmo usare la forza bruta.
Di nuovo.
Per prevedere una serie temporale, secondo Kolmogorov, sono necessarie 2 cose:
1. aspettativa = const
2. ACF non è uguale a 0.
Il "rumore bianco", la "moneta", ecc. non sono prevedibili in linea di principio, perché il loro ACF = 0.
Siamo molto fortunati che l'ACF degli incrementi delle serie temporali del mercato non sia uguale a 0. Così, gli incrementi possono essere previsti.
Manon abbiamo fortuna con la 1a condizione"payoff atteso = const". Il valore medio degli incrementi in qualsiasi campione su TF standard "galleggia" molto fortemente rispetto a 0.
Conclusione: il pre-trattamento BP (thinning) è necessario per ottenere una varianza minima dell'aspettativa rispetto a 0. Allora la possibilità di fare un TS redditizio basato sulla previsione del prossimo incremento (non il prezzo!) aumenta molte volte.
Questo è tutto.
Di nuovo.
Per prevedere una serie temporale, secondo Kolmogorov, sono necessarie 2 cose:
1. aspettativa = const
2. ACF non è uguale a 0.
Il "rumore bianco", la "moneta", ecc. non sono prevedibili in linea di principio, perché il loro ACF = 0.
Siamo molto fortunati che l'ACF degli incrementi delle serie temporali del mercato non sia uguale a 0. Così, gli incrementi possono essere previsti.
Manon abbiamo fortuna con la 1a condizione"payoff atteso = const". Gli incrementi medi di qualsiasi campione sul TF standard sono molto "fluttuanti" rispetto a 0.
Conclusione: il pre-trattamento BP (thinning) è necessario per ottenere una varianza minima dell'aspettativa rispetto a 0. Allora la possibilità di fare un TS redditizio basato sulla previsione del prossimo incremento (non il prezzo!) aumenta molte volte.
Tutto.
A quanto pare queste riflessioni sono meglio discusse in un altro thread. MO e NS sono un po' lontani dall'argomento delle logiche di strategia. la pratica di oggi è quella di provare l'allenamento sulla storia dei pacchetti e considerare il risultato sui dati reali.
A questo proposito, non sono d'accordo con la condizione di aspettativa statica. Se la matrice descrive la serie con meno errori allora la serie è stabile e allo stesso tempo l'aspettativa matematica non è sempre statica o più del necessario. Può essere inferiore, ma il modello matematico può descriverlo con un errore minimo.
A quanto pare queste riflessioni sono meglio discusse in un altro thread. IO e NS sono un po' lontani dall'argomento delle logiche di strategia. oggi la pratica è quella di provare l'allenamento sulla storia dei pacchetti e considerare il risultato sui dati reali.
A questo proposito, non sono d'accordo con la condizione del payoff atteso statico. Se la matrice descrive la serie con meno errori allora la serie è stabile e allo stesso tempo l'aspettativa matematica non è sempre statica o più del necessario. Può essere inferiore, ma il modello matematico può descriverlo con un errore minimo.
Appaio raramente qui e non voglio discutere di nulla.
Dico le cose come stanno. Nessun neuronet super-ingegnerizzato può gestire il set di dati standard dei TF standard (M1, H1, ...). È un assioma.
Solo la pre-elaborazione degli incrementi BP può dare la Via del Graal. Amen.
Non vengo spesso qui e non voglio discutere di nulla.
Sto solo dicendo le cose come stanno. Nessuna rete neurale super-ingegnerizzata può far fronte al set di dati standard dei TF standard (M1, H1, ...). È un assioma.
Solo la pre-elaborazione degli incrementi BP può dare la Via del Graal. Amen.
Lo farà, ma la precisione sarà del 60-70%. Sui timeframe H,H4,D è sufficiente
Hmm... Darò un'occhiata. Non ho ancora lavorato con timeframe superiori a M15...
Sì, attaccalo.
Mi aspetterei che dipendesse dal giorno della settimana di entrata, ora di entrata, SL e TP.
Dovremmo eseguire il sistema per tempo di uscita nel tester e vedere cosa succede. Anche se il tempo di uscita e la durata sono parametri indiretti e diventano noti solo quando lo SL o il TP scatta. Dovremo usare la forza bruta.
Quindi l'esperimento ha essenzialmente confermato la regola "taglia le perdite e lascia fluire i profitti".
Il modello è allegato.
Hmm... Darò un'occhiata. Non ho ancora lavorato con TF sopra M15...
Quindi l'esperimento ha essenzialmente confermato la regola "taglia le perdite e lascia fluire i profitti".
Modello allegato.
Norm
le perdite sono leggermente inferiori