L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1547
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Non lo so, è sempre diverso.
Hmm, quindi forse pensare a un modo per scoprirlo?
A proposito, posso costruire un modello in R usando i tuoi dati - se sei interessato al confronto dell'efficienza dei metodi.Hmm, possiamo pensare a un modo per scoprirlo?
A proposito, posso costruire in R il modello dai vostri dati - se siete interessati al confronto dell'efficienza dei metodi.non si può già fare niente di meglio, il modello è perfetto e conferma la natura casuale di kotir
ulteriori miglioramenti possono essere fatti solo con diversi metodi di lavoro con processi casuali, come ho scritto sopra
non si può fare niente di meglio, il modello è perfetto e conferma la natura casuale di kotir
Ulteriori miglioramenti possono essere fatti solo con diversi metodi di lavoro con processi casuali, come ho scritto sopra
Soluzioni casuali per processi casuali mi sembra un metodo troppo rischioso nella sua ideologia...
Sto tornando a qualcosa che volevo fare da molto tempo - MO + stoh
http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/
L'argomento è interessante - specialmente il modello di salto di Merton o qualche sua variante. Sembra che, a differenza della diffusione convenzionale, non si riduca (per campionamento temporale) all'autoregressione, o lo si faccia in qualche modo non banale. Forse i calcoli in una finestra scorrevole per un portafoglio saranno abbastanza inaccessibili.
La foresta casuale è una storia adatta senza possibilità di aggiustamento. Ho spremuto ogni opzione da SL un anno fa.
La regressione lineare ha molte più possibilità di produrre un profitto. Quando ci si allena, bisogna alimentare i prezzi relativi, non i prezzi reali.
Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0
Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0
Quale configurazione di griglia ti piace?
Il costruttore è forte!
Per esempio, molte persone usano mentalmente "funzioni di attivazione" anche quando non sono necessarie. "Funzioni di attivazione" = conversione di dati in una certa gamma di valori con perdita parziale o completa di informazioni - è come una funzione hash per un file.
Se l'input è già costituito da dati normalizzati, allora le "funzioni di attivazione" tra gli strati non sono necessarie, cazzo. Non potete sbarazzarvi della "funzione di attivazione" in Alglib.
Ho un intero sistema di controllo delle modifiche sotto forma di Jenkins + MLFlow per enumerare le varianti e memorizzare i risultati.
Ora la configurazione è così:
Naturalmente, non ho capito subito come addestrare la rete sulla scheda video a scapito della latenza dei dati. Ora il mio codice è ottimizzato e impara 100 volte più velocemente dalla versione originale, riducendo la quantità di dati caricati sulla scheda video.
Il costruttore è forte!
Per esempio, molte persone usano mentalmente "funzioni di attivazione" anche quando non sono necessarie. "Funzioni di attivazione" = conversione di dati in una certa gamma di valori con perdita parziale o completa di informazioni - è come una funzione hash per un file.
Se l'input è già costituito da dati normalizzati, allora le "funzioni di attivazione" tra gli strati non sono necessarie, cazzo. In Alglib non potete sbarazzarvi della "funzione di attivazione".
Ho un intero sistema di controllo delle modifiche sotto forma di Jenkins + MLFlow per enumerare le varianti e memorizzare i risultati.
Ora la configurazione è così:
Naturalmente, non ho capito subito come addestrare la rete sulla scheda video a scapito della latenza dei dati. Ora il mio codice è ottimizzato e sta imparando 100 volte più velocemente dalla versione originale, riducendo la quantità di dati caricati sulla scheda video.
e il livello ricorsivo? lstm o gru
Il costruttore è forte!
Per esempio, molte persone usano mentalmente "funzioni di attivazione" anche quando non sono necessarie. "Funzioni di attivazione" = conversione di dati in una certa gamma di valori con perdita parziale o totale di informazioni - è come una funzione hash per un file.
Se l'input è già costituito da dati normalizzati, allora le "funzioni di attivazione" tra gli strati non sono necessarie, cazzo. Non potete sbarazzarvi della "funzione di attivazione" in Alglib.
Ho un intero sistema di controllo delle modifiche sotto forma di Jenkins + MLFlow per enumerare le varianti e memorizzare i risultati.
Ora la configurazione è così:
Naturalmente, non ho capito subito come addestrare la rete sulla scheda video a scapito della latenza dei dati. Ora il mio codice è ottimizzato e impara 100 volte più velocemente dalla versione originale, riducendo la quantità di dati caricati sulla scheda video.
La vostra NS sta prevedendo con successo il futuro? Se è così, sarebbe interessante vedere il segnale o almeno i risultati del tester con il forward.
e il livello di ricorrenza? lstm o gru
Potrei aggiungere, ma in questo momento voglio testare completamente la mia variante. Ho solo bisogno di aggiungere 1 linea al codice per cambiare la struttura della rete. Non stiamo traducendo un testo, ma riconoscendo un evento storico.
https://pytorch.org/docs/stable/nn.html - scegliete qualsiasi livello che vi piace e aggiungetelo su una linea.