L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 375
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
1) Ho capito bene il significato di dividere il dataset in training, validazione e test:?
2) A proposito, qual è il tasso di errore per la formazione/validazione/test a cui mirare? 15/20/20% o forse 5/10/15%? o altro?
3) Non ho capito bene perché si consiglia di mescolare gli esempi di allenamento? Elaboreremo comunque ogni esempio.
A proposito, qual è il livello di errore nella formazione/validazione/test a cui puntare? 15/20/20% o forse 5/10/15% o altro?
In precedenza, sì, qualcosa del genere.
Per quanto riguarda l'errore, dipende dalle specifiche. Se, per esempio, MO o NS determinano l'entrata in un trade, allora il 50% di errore può essere sufficiente. Per esempio, in un trade di successo si ottiene una media di 2-3p di profitto, e in uno senza successo 1p di perdita. In questo caso 0,5 non è una cattiva probabilità.
Il precedente, sì, in qualche modo.
Per quanto riguarda l'errore, dipende dalle specifiche. Se, per esempio, MO o NS determinano l'entrata in un trade, allora il 50% di errore può essere sufficiente. Per esempio, in un trade di successo si ottiene una media di 2-3p di profitto, e in uno senza successo 1p di perdita. In questo caso 0,5 non è una cattiva probabilità.
Perché voglio imparare fino al 10%, ma se questa cifra non è realistica, sprecherò il mio tempo e la mia CPU. Diciamo - qual è il miglior errore che avete raggiunto e a quale livello è possibile fermarsi e non cercare di migliorare?
0,5 potrebbe essere un po' troppo piccolo... E a quali valori dovrei tendere? Quali posso davvero raggiungere nella pratica (non qualche altro compito NS, ma per il trading)?
Perché voglio imparare fino al 10%, ma se questa cifra non è realistica, sprecherò il mio tempo e la mia CPU. Diciamo - qual è il miglior errore che avete raggiunto e a quale livello è possibile fermarsi e non cercare di migliorare?
0,5 non è sufficiente? Non ci posso credere). Ho già fatto questo esempio: il giocatore di poker ha 1/9-1/6 di probabilità di vincere, e i buoni giocatori sono sempre in nero.
E tutti i miei sistemi funzionavano a ~0,5 di probabilità, ed erano sempre in positivo. Per quanto ne so, molti TS lavorano con probabilità vicine allo 0,5 - è stato menzionato alla conferenza di autotrading, in particolare.
"Altrimenti voglio allenarmi fino al 10%, ma se è una cifra irrealistica" - che sia reale o irrealistica dipende dal compito specifico. Per esempio, ho insegnato a NS a incrociare le MA - quindi è quasi affidabile al 100%)).
0,5 non è sufficiente? Non ci posso credere). Ho già fatto questo esempio: il giocatore di poker ha 1/9-1/6 di probabilità di vincere, e i buoni giocatori sono sempre in nero.
E tutti i miei sistemi funzionavano a ~0,5 di probabilità, ed erano sempre in positivo. Per quanto ne so, molti TS lavorano con probabilità vicine allo 0,5 - è stato menzionato alla conferenza di autotrading, in particolare.
"Altrimenti voglio allenarmi fino al 10%, ma se è una cifra irrealistica" - che sia reale o irrealistica dipende dal compito specifico. Per esempio, ho insegnato a NS a incrociare le MA - quindi è quasi affidabile al 100%)).
È vero, si può fare senza alcuna previsione (50%), basta prendere profitto più dello stop. In realtà non si può prevedere nulla, nessuno sa dove andrà il prezzo nel Forex, solo gli addetti ai lavori, i burattinai lo sanno.
In realtà è impossibile prevedere qualcosa, nessuno sa dove andrà il prezzo nel mercato del forex, solo gli addetti ai lavori, i burattinai lo sanno.
1) Ho capito bene il significato di dividere il dataset in training, validazione e test:?
2) A proposito, qual è il tasso di errore per la formazione/validazione/test a cui mirare? 15/20/20% o forse 5/10/15%? o altro?
3) Non ho capito bene perché si consiglia di mescolare gli esempi di allenamento? Elaboreremo comunque ogni esempio.
1) Non tutti e questo è fondamentale.
Prendiamo un grande file. Dividilo in due parti disuguali.
La parte più grande è divisa come hai descritto. Otteniamo gli errori che dovrebbero essere approssimativamente uguali.
Dopo di che controlliamo il modello nella seconda parte del file. L'errore in questa parte di nuovo non dovrebbe essere molto diverso.
Questa è la prova più importante della mancanza di perobuchi (overfitting).
L'entità dell'errore? Questa è una specie di costante che deriva dall'insieme dei predittori che possono essere ridotti adattando il tipo di modello.
Per esempio.
Se avete tutti e quattro gli errori intorno al 35%, allora selezionando un modello, Dio non voglia che riduciate l'errore al 30%.
PS.
Un errore inferiore al 10% è un chiaro segno di sovrallenamento. Se avete un tale errore, dovreste ricontrollare cento volte.
Ho trovato un arresto anticipato con sezione di convalida in ALGLIB:
A giudicare dal codice, non confronta l'errore nelle sezioni di allenamento e di convalida, ma cerca l'errore minimo nella sezione di convalida. E si ferma se non ne trova uno migliore dopo 30 iterazioni, o se tutte le iterazioni sono passate.
Ma non sono sicuro che questo metodo sia migliore/più accurato del solito... A meno che il numero di cicli di allenamento non venga aumentato di diverse volte...
Ecco cosa ne è venuto fuori:
Sembra che ci sia stato un adattamento alla trama di convalida. Quello di prova ha generalmente successo, ma non era in allenamento e non è stato confrontato, probabilmente solo una coincidenza.
Questo f conta gli insiemi, e c'è una divisione di 2/3 e tutto è mescolato tra le due trame, cercherò di fare lo stesso...
L'ha mischiato:
A causa della miscelazione, l'errore è livellato nelle sezioni di addestramento e di convalida.
Qualcosa mi sembra sbagliato, perché nel trading reale le barre andranno nel loro ordine, e non mescolate con quelle di un'ora e un giorno fa.
E se la "natura" del mercato cambia, significa che dobbiamo reimparare o cercare nuovi modelli NS.
In realtà è possibile. 0,5 con previsione e presa non è lo stesso che 50/50 con la volontà di Dio)) - Cioè, senza una previsione. Stiamo lanciando una moneta completamente diversa)).
1) Non tutti ed è fondamentale.
Prendiamo un grande file. Dividilo in due parti disuguali.
Dividi la parte più grande nel modo che hai descritto. Otteniamo gli errori, che dovrebbero essere circa uguali.
Dopo di che il modello viene controllato sulla seconda parte del file. L'errore in questa parte di nuovo non dovrebbe essere molto diverso.
Questa è la prova più importante della mancanza di feathering (overfitting).
Quanti cicli di formazione/convalida devi fare? Non ho visto nessuna informazione al riguardo da nessuna parte... 1 ciclo in totale? - e subito dopo approviamo o cambiamo qualcosa nel set di predittori o nello schema della rete? Più precisamente per N cicli di allenamento ci verrà mostrato uno dei migliori.