L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1211
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Il mio robot è sempre al rialzo. Non so quando sia possibile fare un ordine alla volta e non so proprio come aprirlo subito. Quindi ho bisogno di sapere quando il robot potrebbe fare peggio del solito... poiché i rischi sono limitati, il mio profitto è puramente una questione di tempo... e a volte bisogna aspettare una settimana... E in una settimana, se non ci fossero stati questi prelievi, avresti potuto fare molto di più...
Martin e il drawdown sono due amici inseparabili
E non importa quanto trend/float tu vada, sarà sempre così.
PS
Puoi darmi un link al libro di testo, per favore?
Si prega di consigliare, perché è troppo pigro per leggere 1200 pagine, qualcuno qui ha provato a implementare l'apprendimento automatico basato sui risultati del trading su EAs chiusi?
https://www.mql5.com/ru/code/22710
Martin e il drawdown sono due amici inseparabili
E non importa quanto trend/float sarà sempre così.
PS
Hai un link al manuale?
Martin e il drawdown sono due amici inseparabili
E non importa quanto trend/float sarà sempre così.
PS
Hai un link al manuale?
I risultati preliminari (dato che non ho ancora fatto tutti i predittori) sulla creazione di modelli che determinano modelli redditizi (1) non erano così male, ecco la ripartizione per y - profitto nel campione indipendente, e per x - 1 - TP+FP e 0 - TN+FN.
L'obiettivo era un profitto di 2000, beh, non è stato raggiunto finora, ma solo 3 modelli sono entrati nella zona di perdita da 960 che non è un cattivo risultato.
La tavola di coniugazione
Il risultato finanziario medio non classificato è 1318,83, dopo la classificazione 1 - 2221,04 e 0 - 1188,66, quindi dopo la classificazione il risultato finanziario medio dei modelli è aumentato del 68%, che non è male.
Tuttavia, resta da vedere se questo modello può funzionare con modelli costruiti su altri dati.
Logloss training - sorprendentemente, il campione di test (su cui il modello è campionato automaticamente - non il campione di allenamento) e l'indipendente (esame) Logloss_e convergono quasi perfettamente.
Anche Recall.
E la metrica Precision mi ha sorpreso, dato che per default è di solito usata per la selezione del modello, non ho avuto nessun allenamento perché è stata subito uguale a 1 sul primo albero.
Ma le diverse metriche sul test e sull'esame - il risultato mi sorprende molto - un delta molto piccolo.
Dai grafici ovviamente posso vedere che il modello è sovrallenato e avrei potuto fermare l'allenamento a 3500 alberi o anche prima, ma non ho regolato il modello e i dati sono effettivamente con le impostazioni di default.
Un errore da qualche parte, non esiste una cosa come un test e una pista pari. O graal, poi condividere :D
Non è un graal, ho altri 100k modelli nella mia copia e i risultati non sono molto buoni per loro - tutti i modelli redditizi stanno ottenendo solo il 2%, ma quelli redditizi ne hanno anche troppi.
Penso che sia l'effetto di un sistema chiuso, cioè una sorta di stazionarietà, perché i modelli sono simili tra loro, sono solo riuscito a identificare bene le loro caratteristiche, quindi c'è una così piccola discrepanza tra i risultati.
Sto finendo i predittori previsti e quello che mi viene in mente - forse dovrei rimuovere immediatamente quei modelli che non sceglierei io stesso (grandi drawdown, forte sproporzione tra acquisti e vendite, distribuzione di probabilità molto piccola, ecc.), poi le informazioni sui modelli ovviamente cattivi diminuiranno, ma ci sarà più enfasi sulla scelta di un modello ipoteticamente buono (naturalmente, il modello buono nel test può avere cattivi risultati sul campione di prova). Quindi non so se tagliare il campione o no, cosa ne pensi?
Inoltre, rifiuterò il nudo profitto come obiettivo - selezionerò i modelli secondo un certo numero di criteri - ahimè, questo ridurrà l'obiettivo "1", ma forse ci saranno collegamenti più profondi che permetteranno di valutare il modello dai risultati dei test.
Potreste consigliarmi, perché sono troppo pigro per leggere 1200 pagine? Qualcuno ha provato a implementare l'apprendimento automatico basato sui risultati del trading sugli ordini chiusi di Expert Advisors?
Non c'è bisogno di leggere questo argomento, credetemi, vi illuminerà la mente, provate a fare subito come quiWALKING LEFTS PREVENTIVO TRENDS Questo è un eccellente corso introduttivo sull'uso dell'IR nell'algoritmo, ma in generale l'IR è una materia molto ampia, infatti l'IR è un'estensione della statistica classica, principalmente con euristica e trucchi ingegneristici, quindi non è una scienza ma uno sciamanesimo tecnogenico, che da un lato è interessante, ma dall'altro è irto di speculazioni e abusi. Se siete interessati allo sviluppo di indicatori, potreste dimenticare ciò che avete fatto in origine, e il MO è un buco senza fondo, potreste tuffarvi e non uscirne più. Inoltre, dovreste avere un buon background matematico, almeno una laurea in ingegneria, per occuparvi di indicatori invece di annoiare i parametri di librerie e pacchetti.
Non è un graal, ci sono 100k modelli in più e il risultato non è molto buono per loro - sì, taglia bene i modelli completamente non redditizi - solo il 2%, ma taglia anche troppi modelli redditizi.
Penso che sia l'effetto di un sistema chiuso, cioè una sorta di stazionarietà, perché i modelli sono simili tra loro, sono solo riuscito a identificare bene le loro caratteristiche, quindi c'è una così piccola discrepanza tra i risultati.
Sto finendo i predittori previsti e quello che mi viene in mente - forse dovrei rimuovere immediatamente quei modelli che non sceglierei io stesso (grandi drawdown, forte sproporzione tra acquisti e vendite, distribuzione di probabilità molto piccola, ecc.), poi le informazioni sui modelli ovviamente cattivi diminuiranno, ma ci sarà più enfasi sulla scelta di un modello ipoteticamente buono (naturalmente, il modello buono nel test può avere cattivi risultati sul campione di prova). Quindi non so se tagliare il campione o no, cosa ne pensi?
Bene, rinuncerò anche al nudo profitto come obiettivo - selezionerò i modelli in base a una serie di criteri - ahimè, ridurrà l'obiettivo "1", ma forse ci saranno collegamenti più profondi che permetteranno di valutare il modello in base ai risultati dei test.
Beh, naturalmente, se c'è una chiara inutilità, si può rimuovere