L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2278

 
mytarmailS:

Per quanto mi ricordo TC ha lavorato per un po' ed è morto...

La filtrazione nel senso usuale (maghi, filtri, ecc.) è sempre un ritardo, un ritardo nel mercato è un drenaggio....

Dovresti costruire un altro paradigma (senza ritardi), livelli per esempio...

Cosa c'entra il ritardo? È lo stesso overfit, che differenza fa?

devi prima cercare un modello

 
mytarmailS:

cosa state aspettando?

Ho queste idee un carro e un vagone, in coda.

Il file dà un esempio per 2 microfoni, e c'è un'altra idea per usare più valute per lo stesso scopo.

Ho anche bisogno di guardare l'adattamento alla cieca.



Visualizzazione della funzione di perdita

 
Maxim Dmitrievsky:

Cosa c'entra il ritardo? È lo stesso overfit, che differenza fa il modo di insegnarlo?

Dovete cercare un modello di furst.

Cos'è la sovralimentazione in un gimbal? Ma almeno leggi quello che dico?

 
elibrarius:

C'è qualcosa nell'alglibo per comprimere e decomprimere i grafici?

Sull'interpolazione, ne vedo diverse. Quale funzionerà meglio per noi? E qual è il più veloce?

Abbiamo rinunciato all'idea...

Abbiamo trovato qualcosa per comprimere e decomprimere i grafici. Cosa c'è dopo? Come lo usiamo?

1) Riconoscere una dozzina di situazioni attuali compresse e non compresse? E poi? Alla media? Dopo tutto, forse il 50% dice di comprare e il 50% di vendere.

2) Nell'addestramento, c'è modo di usare questo? Diminuire la dimensione dell'array per la formazione?

 
elibrarius:

L'idea è stata abbandonata...

non ha funzionato per me...

espanso e ristretto x10 volte.

spazzatura


c'è un altro modo... non combattere l'invarianza ma ridurre la dimensionalità

o semplicemente ignorarlo)

 
mytarmailS:

Cos'è l'overfit in un mashka? Ma almeno leggi quello che scrivo?

usa il tuo cervello).

l'approccio della vostra rete neurale per attraversare i periodi di tempo è un semplice overfit
 
mytarmailS:

Non ha funzionato per me...

espanso - ristretto a x10 volte

spazzatura


c'è un altro modo... non combattere l'invarianza ma ridurre la dimensionalità

o saltarlo)

10 volte è troppo.

Penso che non abbiate bisogno di più del 50%. Prova, per esempio, 1,1, 1,3, 1,5 volte.


Se hai del codice già pronto e hai solo bisogno di cambiare il moltiplicatore, controlla queste opzioni

 
mytarmailS:

Non ha funzionato per me...

espanso - ristretto a x10 volte

spazzatura


c'è un altro modo... non combattere l'invarianza ma ridurre la dimensionalità

o semplicemente ignorarlo)

Avete provato il punto 1? Cioè, avete alimentato diverse varianti della situazione attuale in scala nel modello durante la previsione?
 
Maxim Dmitrievsky:

accendere il cervello).

l'approccio della vostra rete neurale di sovrascrivere i periodi di MA è un semplice overfit

Non l'ho spento...

La rete controlla il periodo dello sventolio, il periodo è da 2 a 500 credo...

un periodo di2 a 500 equivale a un ritardodi 2 a 500

Che la rete sia o meno overfitted non è il punto... Il punto è che controlla il periodo e il periodo == ritardo

elibrarius:
Hai provato il passo 1? Cioè, quando fate le previsioni, avete inserito nel modello diverse varianti in scala della situazione attuale?

 

Sono molto interessato a questo algoritmo SPADE, ma non so ancora come affrontarlo, è da mezzo anno che mi gira in testa...

Non è molto ovvio come preprocessare i dati per esso, lo stesso vale per l'obiettivo + è estremamente avido di risorse, non è sicuramente un algoritmo "big-data"...

Ma mi sembra che questo sia il miglior algoritmo per il mercato del data mining