L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2019

 
Aleksey Vyazmikin:

Si può anche prendere un messaggio di persona.

Beh, ecco, paradosso situazionale, non posso entrare nella casella di posta) il sito è glitchato. Se funziona, scriverò a voi e a Maxim.

 
Maxim Dmitrievsky:

Non è complicato, devi solo capirlo.

Non c'è bisogno di alcun potere. Posso imparare LSTM sul mio portatile in pochi minuti senza schede video. Il potere è un mito.

)), beh... dichiarazione discutibile.

... Обучение закончено...
 ============ Обучение заняло(миллисекунд): 26832. Эпох: 2693 ===========
 eta: 0.0100, alpha: 0.0050
 max_long_result: 0.9986, max_short_result: 0.9996
 min_long_result: 0.9979, min_short_result: 0.9950
La stessa operazione in MQL richiede 10 minuti o più. La velocità potrebbe essere aumentata se l'host avesse più core nel processore o i processori stessi ))).
 
Farkhat Guzairov:

)), beh... affermazione controversa.

La stessa operazione con MQL richiede 10 minuti o più. La velocità potrebbe essere aumentata se l'host avesse più core nella CPU o nei processori stessi)).

2700 epoche in 30 secondi è troppo veloce

 
dr.mr.mom:

Beh, ecco, paradosso situazionale, non posso entrare nei miei messaggi personali) il sito web è glitchato. Scriverò a te e a Maksim quando sarà tutto più chiaro.

Ti ho scritto, è arrivato il messaggio?

 
Maxim Dmitrievsky:

2700 epoche in 30 secondi sono troppo veloci.

I dati non sono sufficienti, l'array è come 400 profondo, ma se lo carichi sulla storia profonda, anche C ++ con i thread sarà troppo lento )))), ma la cosa più triste è che alla fine non è possibile ottenere un sistema ben addestrato, ho una soglia di 30000 epoche, si ferma la formazione, ma si sa questo non è la merda addestrato, perché così ... Penso che sia a causa di collisioni, cioè mi sembra che ci sia un insieme di dati che in un caso dice che il modello è corto e nell'altro caso questo stesso modello appare come lungo, se è così è colpa mia, ma non ho tempo di occuparmene ((. A causa di questo ho semplicemente ridotto il set di dati di input per l'allenamento.

 
Maxim Dmitrievsky:

amico... non è complicato nel senso che si può capire

Di solito un paio di strati sono sufficienti, non c'è bisogno di molta profondità nel forex

È solo che architettonicamente ci sono reti più avanzate per la vr, più fresche della lstm. Potrebbe essere redditizio da lì, non l'ho ancora testato. Tutti i "classici" come i boosting e i perseptron non sono affatto adatti alla VR.

Se sono necessari più strati o meno può essere giudicato solo dai risultati ottenuti, penso...

Quali altre reti ci sono là fuori, puoi nominarle - non sono per niente bravo con le varietà di reti.

Posso lasciarti un campione per una rete alla moda?

 
Farkhat Guzairov:

I dati sono piccoli, l'array è profondo tipo 400, ma se lo carico sulla storia profonda, anche il C++ con i thread andrà in tilt )))), ma la cosa più triste è che alla fine non posso ottenere un sistema ben addestrato, ho 30000 epoche limite e l'addestramento si ferma a questo, ma si capisce che non è la merda addestrata, perché così... Penso che sia a causa di collisioni, cioè mi sembra che ci sia un insieme di dati che in un caso dice che il modello è corto e nell'altro caso questo stesso modello appare come lungo, se è così è colpa mia, ma non ho tempo di occuparmene ((. Per questo ho semplicemente ridotto il set di dati di input per l'allenamento.

Perché un numero così grande di epoche... di solito 1000 o anche 100 sono sufficienti per un tasso di looping dinamico.

 
Aleksey Vyazmikin:

Se siano necessari o meno più strati può essere giudicato solo dai risultati ottenuti, penso...

Quali altre reti ci sono là fuori, puoi nominarle - non sono molto bravo a variare la rete.

Posso lasciarti un campione da far girare in una rete di fantasia di qualche tipo?

Sto imparando a conoscere le reti neurali. Ho già scritto qui. Sono nuovi convoluzionari e trasformatori e così via, utilizzati soprattutto per l'elaborazione del linguaggio e del suono.

I set di dati per loro sono preparati in modo speciale, i set di dati normali non funzionano
 
Maxim Dmitrievsky:

Sto imparando a conoscere le reti neurali. Ho già scritto qui. Queste sono le nuove convoluzioni, i trasformatori e così via, utilizzati soprattutto per l'elaborazione del linguaggio e del suono.

Hanno set di dati speciali, quelli normali non funzionano

Se sai come prepararti, puoi farlo...

 
Maxim Dmitrievsky:

perché un numero così grande di epoche... di solito fino a 1000 o anche 100, con un tasso di apprendimento dinamico

L'obiettivo è quello di ottenere la massima accuratezza per l'addestramento, cioè l'accuratezza a 1. Poiché i pesi primari sono impostati in modo casuale, a volte le epoche possono essere meno di 1000.