L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 588

 
Yuriy Asaulenko:

Ricordo che avevi circa il 70% di previsioni adeguate. Ho scritto il post sopra.

Beh, il 70% corretto non è proprio niente. Di quel 70% corretto per entrare nel commercio, almeno un terzo. Questo ci lascia il 23%. Non è niente contro il 30% di previsioni sbagliate (non sappiamo in anticipo se sono giuste o sbagliate). E le previsioni sbagliate sono per così dire nelle aree di inflessione (cambio di direzione), e queste aree sono esattamente le più adatte per i trade.

Su questa base, credo che sia inutile impegnarsi in una previsione, ma piuttosto in una classificazione. Cioè per determinare se un certo momento è adatto per fare un accordo. Utilizzando i modelli si otterrà l'errore di ingresso 20-40% Più cifre esatte che ho dato prima in questo argomento.


La classificazione è la previsione dell'appartenenza alla classe, o la probabilità di appartenenza.

Ha lo stesso effetto della regressione, dalla quale si può anche estrarre l'appartenenza.

 
SanSanych Fomenko:

Mi ha convinto che il problema della non stazionarietà non ha niente a che fare con il MO. Non avendo mai avuto a che fare con NS, non avevo argomenti per confutare la sua opinione. Inoltre c'era una comprensione intuitiva che vari alberi e altri, tranne NS, funzionano perfettamente bene con predittori non stazionari.

Mi baso sull'assioma che ci sono alcune regolarità nel comportamento dei prezzi, è un processo non markoviano. E cerco di trovarli usando MO.

Vari modelli possono effettivamente separare il grano dalla pula, e trovare regolarità in un flusso di prezzi che consiste principalmente di rumore e della sua distorsione intenzionale da parte dei centri di negoziazione.
Il problema è trovare tali parametri per l'addestramento del modello (per il neurone - il numero di pesi, la velocità di apprendimento, ecc.; e per una foresta - il numero di alberi per esempio) che il modello non memorizzerà semplicemente gli esempi iniziali, e dopo aver vinto la non staticità troverà alcuni modelli stabili in tutto quel rumore. Trovo dei buoni parametri per l'addestramento del modello tramite crossvalidations multiple.
Di conseguenza, il mio modello mostra un risultato molto piccolo ma positivo sia sui dati di allenamento che su quelli nuovi (R2 ~0,003). Ma non ho ancora battuto lo spread.

 
Ildottor Trader:

Mi baso sull'assioma che ci sono modelli permanenti nel comportamento dei prezzi, è un processo non markoviano. E cerco di trovarli usando MO.

Vari modelli possono separare il grano dalla pula, e trovare i modelli nel flusso dei prezzi che consiste in gran parte di rumore e distorsione intenzionale da parte dei centri di negoziazione.
Il problema è trovare tali parametri per l'addestramento del modello (per il neurone - il numero di pesi, la velocità di apprendimento, ecc.; e per una foresta - il numero di alberi per esempio) che il modello non memorizzerà semplicemente gli esempi iniziali, e dopo aver vinto la non staticità troverà alcuni modelli stabili in tutto quel rumore. Trovo dei buoni parametri per l'addestramento del modello tramite crossvalidations multiple.
Come risultato, il modello mostra un risultato molto piccolo ma positivo sia sui dati di allenamento che su quelli nuovi (R2 ~0,003). Ma non ho ancora battuto lo spread.

Non ho vinto nemmeno io, e finora non c'è luce. Ma il sistema funziona su FORTS.

SanSanych prevede un'ora di anticipo. Non gli interessa questa diffusione).

 

Non esiste un problema di non stazionarietà per i problemi di classificazione. È reale per i problemi di regressione.

Non confondete la previsione e la predizione. Prevedere e prevedere sono cose diverse. La previsione come risultato è un valore numerico con un intervallo di confidenza. La classificazione predice la classe a cui appartiene l'esempio, la probabilità che l'esempio appartenga alla classe, o il supporto per l'ipotesi che l'esempio appartenga alla classe.

Buona fortuna

 
Vladimir Perervenko:

Non esiste un problema di non stazionarietà per i problemi di classificazione. È reale per i problemi di regressione.

Non confondete la previsione e la predizione. Prevedere e prevedere sono cose diverse. La previsione come risultato è un valore numerico con un intervallo di confidenza. La classificazione predice la classe a cui appartiene l'esempio, la probabilità che l'esempio appartenga alla classe, o il supporto per l'ipotesi che l'esempio appartenga alla classe.

Buona fortuna


Dove posso leggere di queste sciocchezze? :)

 
Maxim Dmitrievsky:

Dove posso leggere queste sciocchezze? :)

Cosa ti sembra assurdo?
 
Vladimir Perervenko:
Cosa ti sembra assurdo?

che a causa della non stazionarietà i modelli tra predittori e predizione di classe si romperanno proprio come nel caso della previsione

 
Maxim Dmitrievsky:

che a causa della non stazionarietà i modelli tra predittori e predizione di classe si romperanno proprio come nel caso della previsione

Può mostrarmi un esempio? O è una conclusione speculativa?

In nessuna parte della numerosa letteratura sulla classificazione con NN/DNN menziona la non stazionarietà come un fattore di influenza. I miei numerosi esperimenti mi dicono la stessa cosa.

Naturalmente siete liberi di avere la vostra opinione sulla questione.

Buona fortuna

 
Vladimir Perervenko:

Può mostrarmi un esempio? O è una conclusione speculativa?

In nessuna parte della numerosa letteratura sulla classificazione tramite NN/DNN menziona la non stazionarietà come un fattore di influenza. I miei numerosi esperimenti mi dicono la stessa cosa.

Naturalmente siete liberi di avere la vostra opinione sulla questione.

Buona fortuna


E classificazione o regressione... che differenza fa?

 

C'è un nuovo, buon libro sull'apprendimento profondo. Purtroppo non posso linkarlo apertamente, è su rutracker.org.

Apprendimento profondo
Anno di pubblicazione: 2018
Autore: Nikolenko S. I., Kadurin A. A., Arkhangelskaya E. O.
Genere o tema: Reti neurali
Editore: Peter
Serie: Programmer's Library
ISBN: 978-5-496-02536-2
Lingua: russo
Formato: PDF
Qualità: testo riconosciuto con errori (OCR)
Indice interattivo: Nessuno
Numero di pagine: 479