L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2019
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Si può anche prendere un messaggio di persona.
Beh, ecco, paradosso situazionale, non posso entrare nella casella di posta) il sito è glitchato. Se funziona, scriverò a voi e a Maxim.
Non è complicato, devi solo capirlo.
Non c'è bisogno di alcun potere. Posso imparare LSTM sul mio portatile in pochi minuti senza schede video. Il potere è un mito.
)), beh... dichiarazione discutibile.
La stessa operazione in MQL richiede 10 minuti o più. La velocità potrebbe essere aumentata se l'host avesse più core nel processore o i processori stessi ))).)), beh... affermazione controversa.
La stessa operazione con MQL richiede 10 minuti o più. La velocità potrebbe essere aumentata se l'host avesse più core nella CPU o nei processori stessi)).2700 epoche in 30 secondi è troppo veloce
Beh, ecco, paradosso situazionale, non posso entrare nei miei messaggi personali) il sito web è glitchato. Scriverò a te e a Maksim quando sarà tutto più chiaro.
Ti ho scritto, è arrivato il messaggio?
2700 epoche in 30 secondi sono troppo veloci.
I dati non sono sufficienti, l'array è come 400 profondo, ma se lo carichi sulla storia profonda, anche C ++ con i thread sarà troppo lento )))), ma la cosa più triste è che alla fine non è possibile ottenere un sistema ben addestrato, ho una soglia di 30000 epoche, si ferma la formazione, ma si sa questo non è la merda addestrato, perché così ... Penso che sia a causa di collisioni, cioè mi sembra che ci sia un insieme di dati che in un caso dice che il modello è corto e nell'altro caso questo stesso modello appare come lungo, se è così è colpa mia, ma non ho tempo di occuparmene ((. A causa di questo ho semplicemente ridotto il set di dati di input per l'allenamento.
amico... non è complicato nel senso che si può capire
Di solito un paio di strati sono sufficienti, non c'è bisogno di molta profondità nel forex
È solo che architettonicamente ci sono reti più avanzate per la vr, più fresche della lstm. Potrebbe essere redditizio da lì, non l'ho ancora testato. Tutti i "classici" come i boosting e i perseptron non sono affatto adatti alla VR.
Se sono necessari più strati o meno può essere giudicato solo dai risultati ottenuti, penso...
Quali altre reti ci sono là fuori, puoi nominarle - non sono per niente bravo con le varietà di reti.
Posso lasciarti un campione per una rete alla moda?
I dati sono piccoli, l'array è profondo tipo 400, ma se lo carico sulla storia profonda, anche il C++ con i thread andrà in tilt )))), ma la cosa più triste è che alla fine non posso ottenere un sistema ben addestrato, ho 30000 epoche limite e l'addestramento si ferma a questo, ma si capisce che non è la merda addestrata, perché così... Penso che sia a causa di collisioni, cioè mi sembra che ci sia un insieme di dati che in un caso dice che il modello è corto e nell'altro caso questo stesso modello appare come lungo, se è così è colpa mia, ma non ho tempo di occuparmene ((. Per questo ho semplicemente ridotto il set di dati di input per l'allenamento.
Perché un numero così grande di epoche... di solito 1000 o anche 100 sono sufficienti per un tasso di looping dinamico.
Se siano necessari o meno più strati può essere giudicato solo dai risultati ottenuti, penso...
Quali altre reti ci sono là fuori, puoi nominarle - non sono molto bravo a variare la rete.
Posso lasciarti un campione da far girare in una rete di fantasia di qualche tipo?
Sto imparando a conoscere le reti neurali. Ho già scritto qui. Sono nuovi convoluzionari e trasformatori e così via, utilizzati soprattutto per l'elaborazione del linguaggio e del suono.
I set di dati per loro sono preparati in modo speciale, i set di dati normali non funzionanoSto imparando a conoscere le reti neurali. Ho già scritto qui. Queste sono le nuove convoluzioni, i trasformatori e così via, utilizzati soprattutto per l'elaborazione del linguaggio e del suono.
Hanno set di dati speciali, quelli normali non funzionanoSe sai come prepararti, puoi farlo...
perché un numero così grande di epoche... di solito fino a 1000 o anche 100, con un tasso di apprendimento dinamico
L'obiettivo è quello di ottenere la massima accuratezza per l'addestramento, cioè l'accuratezza a 1. Poiché i pesi primari sono impostati in modo casuale, a volte le epoche possono essere meno di 1000.