L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 686

 
elibrario:

Potrebbe essere ragionevole...

Ma all'università ci hanno detto che tutto veniva provato e comprovato, e abbiamo anche fatto degli esperimenti in laboratorio. E non ci è stato detto: "Prendetelo come verità, che non ha bisogno di prove".

Sono d'accordo ) ma penso che abbia coperto l'intera teoria in altri thread, devi solo rileggere tutto

Il forum è un mezzo di comunicazione molto povero, per me personalmente ... c'è un sacco di informazioni, il 90% di esse viene dimenticato, il resto viene saltato o letto male ... quindi, c'è una leggera raffica di incomprensioni tra i partecipanti

 
Maxim Dmitrievsky:

Sono d'accordo con questo ) ma sembra che abbia descritto la teoria in altri thread, basta rileggere tutto

Il forum è un mezzo di comunicazione molto povero, per me... Troppe informazioni, il 90% viene dimenticato, il resto viene perso o letto male... quindi, c'è una leggera traccia di incomprensione tra i partecipanti

Non lo comprimo/scomprimo, ma ho bisogno di più tempo). Va senza ritorno.
Bisogna mettere le cose importanti in un blog o in un articolo (ma devono essere accettate), è più facile nel blog. Altrimenti, si dimentica tutto quello che si voleva dire e gli altri, e si dimenticano i propri pensieri con il tempo. E poi buttare il link al blog nel forum e discuterne...
 
Aleksey Terentev:

Al momento, c'è un modello stabile. Ha ancora bisogno di lavoro, ma è occupato con altri compiti.

Input = prezzo + 13, 26 yema;

Preprocessing, output = sigmoide (max, min, close), delta (open-close), derivata (max, min, close), logaritmo della derivata (max, min, close), detrend (close-eme13, close-eme26), yema(13, 26), derivata yema(13, 26); Convertire dataset in dataset timeseries (1 candela + 5 ultime). Totale 16 x 6 = 96 parametri.

Architettura:
BatchNormalization(96);
GRU(96, L2, Dropout=0.5, 'elu');
GRU(64, L2, Dropout=0.5, 'elu');
BatchNormalization(64, Dropout=0.3);
Dense(32, Dropout=0.3, 'elu');
Dense(16, 'elu');
Dense(8, 'elu');
Dense(3, 'softmax');
Ottimizzatore=Nadam;
Perdita=Crossentropia categoriale;

BouncedMA segnala l'uscita da una candela in avanti (sopra nel ramo);

Stime: perdita ~0,7-0,8; precisione ~0,55;
Ma tali stime del modello non parlano della qualità dei suoi segnali. Sono più bassi, a causa del fatto che i segnali sono formazione = 1.0, 0.95, 0.0, -0.95, -1.0, E la previsione della classe buy/sell oscilla ~abs(0.45, 0.7).
Inoltre, su un set di dati di 5000 linee, l'addestramento funziona su 0,8 parti, il che significa che il modello non vede nemmeno i dati dell'ultima quotazione (~1000 linee). La previsione viene fatta sulle ultime 100 candele.

Come potete vedere, l'allenamento può essere fermato a ~45 epoche.


Codice, Indicatore.

Ecco come dovrebbero essere i post di questo thread. Dati, codice e risultati riproducibili. Questo può essere discusso, completato e confrontato. Tutto il resto è una sciocchezza di nessun valore.

Ben fatto. Mostrerò lo stesso modello in R/MT un po' più tardi, confronteremo sia il volume che la qualità del codice. Anche io sono piuttosto occupato al momento. Ma tornerò sicuramente su questo argomento.

Buona fortuna

 
Alexander_K2:

Ancora una volta.

Per le previsioni, è estremamente, incredibilmente importante conoscere le leggi di distribuzione dei valori previsti.

Non li conosci per i prezzi, o per gli incrementi, o per il tempo tra i preventivi. Inoltre, non si cerca nemmeno di inserirli in una forma o in un'altra. Quindi come si può prevedere? Questi famigerati archivi di zecche hanno già solcato un miliardo di commercianti. Risultato = 0.

Ho fatto solo un po' di lavoro con questo e sono in attivo ogni settimana. Ho praticamente afferrato il Graal per le orecchie ieri (e si è rivelato essere il mio gatto di Schrodinger...)

Alexander! Quello che dici merita un blog o un articolo, il forum perde il suo filo conduttore... pensaci, forse le idee principali possono essere messe in un blog, almeno in forma astratta, e collegarsi ad esso per mantenere la linea temporale... non dovrebbe richiedere molto tempo

 

Chiedo all'Uomo con la lettera maiuscola di non essere pigro e di presentare il modello della sua NS in sequenza:

1. ingresso - incrementi non importa quale sia il tempo tra loro

2. Ingresso - incrementi con tempo esponenziale tra le citazioni.

3. per diversi volumi di campione

Formalizzarlo come articolo (non per niente).

 
Maxim Dmitrievsky:

Alexander! I tuoi argomenti sono degni di un blog o di articoli, il filo si perde sul forum... pensaci, forse le idee principali possono essere messe in un blog, almeno in astratto, e dare un link per mantenere la cronologia... non dovrebbe richiedere molto tempo

Sì, sì, sto pensando all'articolo, ma non ho ancora tempo.

 
Alexander_K2:

1. ingresso - incrementi con non importa il tempo tra di loro

2. ingresso - incrementi con tempo esponenziale tra le citazioni.

for(int i=start;i<rates_total;i++) 
    {
     Buffer1[i]=close[i]/close[i-1];
     Buffer2[i]=close[i]/close[i-3];
     Buffer3[i]=close[i]/close[i-7];
     Buffer4[i]=close[i]/close[i-20];
     Buffer5[i]=close[i]/close[i-53];
     Buffer6[i]=close[i]/close[i-143];
     Buffer7[i]=close[i]/close[i-387];
     Buffer8[i]=close[i]/close[i-1046];
    }
Va bene nutrire in questa forma? o c'è bisogno di una differenza?
 
Maxim Dmitrievsky:
è giusto nutrirsi in questa forma?

Ho un generatore di numeri esponenziali che imposta il tempo per leggere la citazione

 
Alexander_K2:

Ho un generatore di numeri esponenziali che imposta il tempo per leggere la citazione

Forse le zecche non hanno senso? Perché a qualsiasi scala il risultato dovrebbe essere la stessa distribuzione

 
Maxim Dmitrievsky:

È esattamente la stessa cosa qui, solo che i dati sono presi da un TF arbitrario, non da tick... forse i tick non hanno senso, perché a qualsiasi scala dovrebbe uscire la stessa distribuzione

Forse no. Mi sono già abituato a loro semplicemente.

L'importante è che l'articolo abbia una metodologia che permetta di tracciare il filo della sperimentazione nel tempo. E questa cosa non andrà persa - sarà qualcosa di cui discutere e rimarrà come ricordo.