L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2052
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
È chiaro che non è un idiota. Il test è semplice, ma probabilmente non è aggiornato.
Se è come in Idiocracy, risulterà anche complicato))
Se è come in Idiocracy, sarà anche difficile))
Posso pensare a un sacco di persone che conosco o concorrenti locali che non ce la faranno
Se dà una previsione per una barra o più, che non è sufficiente per prendere una decisione, non è molto meglio di un MA. Mentre si è interessati alle deviazioni da questo MA fittizio per i guadagni.
fino a dove si arriva, fino a dove si arriva.
Stavo armeggiando con la rnn con il tester questa mattina - si sta riqualificando sugli incrementi. Sul treno è buono, non sul tester è cattivo.
Non ne ho bisogno se i risultati non sono migliori della foresta. ) Catbust, tra l'altro, è in grado di mostrare un quadro più interessante. In generale, è una cosa bella, ma non serve a niente.Neural Network Porn... Presto caricherò la parte 2 con le conclusioni, sulla RNN (GRU)
ч.2. Test normale alla fine del video. Prima di allora, non volevo assolutamente allenarmi come si deve.
E un piccolo riassunto di come più o meno la stessa cosa funziona con il catbust, dove il risultato è migliore:
Neural Network Porn... Presto caricherò la parte 2 con le conclusioni, sulla RNN (GRU)
ч.2. Test normale alla fine del video. Prima di allora, non volevo assolutamente allenarmi come si deve.
E un piccolo riassunto di come circa lo stesso funziona con il catbust, dove il risultato è migliore:
Non usate Numba per l'accelerazione?
Non usate Numba per accelerare le cose?
Gli stessi loop sono veloci senza di esso, finora non ne ho bisogno.
Se possibile, la vettorizzazione è ovunque, tutto è veloce lì
Z.I. difetto evidente - non si può insegnare per logloss o cross-entropia, è necessario imbullonare una metrica almeno. L'ho capito solo ora. A causa di questo, i risultati non sono molto buoni, molto probabilmente.
L'invito è venuto dall'ods? Forse ci sono altri modi, dovrò chiederei cicli stessi funzionano rapidamente senza di esso, finora, nessuna necessità
se possibile, vettorizzazione ovunque, tutto è veloce lì
Z.I. difetto evidente - non si può insegnare per logloss o cross-entropia, si deve avvitare in una metrica di precisione almeno. L'ho capito solo ora. A causa di questo, i risultati non sono molto buoni, molto probabilmente.
Hai ricevuto l'invito da ods? forse ci sono altri modi, devo chiedereA volte gli array numpy richiedono più tempo per il calcolo rispetto alle liste python. Ho anche notato che avvolgere il codice in una funzione provoca una velocizzazione.
Non ancora arrivato, non so quando sarà la mia prossima visita a NS.
Su a volte trovo che gli array di numpy impiegano più tempo per essere valutati rispetto alle liste di python. Ho anche notato che avvolgere il codice in una funzione dà un'accelerazione.
Non l'ho ancora fatto, non ho fretta, non so quando ci sarà la prossima corsa in NS.
che è strano. Probabilmente contando elemento per elemento invece che vettore per vettore.
nampai come sui plus dovrebbe volare, con un piccolo overheadche è strano. Probabilmente contando elemento per elemento invece che vettore per vettore.
Nampai come i plus dovrebbe volare, con un po' di overkill.
Sì, se devi farlo in un ciclo.
Ho contato qualcosa come 500 volte per numba, ma non è esatto. Dovete mettere questo codice in una funzione e metterci @njit. @vectorize funziona alla velocità di @njit, quindi non ha senso armeggiare con esso, solo se si conta sulla gpu. Ma la gpu è ancora più problematica, gli array non possono essere dichiarati all'interno della funzione e il codice deve essere privo di loop altrimenti sarà molto lungoE questo è come il catbust è stato addestrato sugli stessi dati (in 5 secondi)
52: imparare: 0.7964708 prova: 0.7848837 migliore: 0.7860866 (27) totale: 604ms rimanente: 5.09s
Set di dati di origine:
Modello addestrato (la seconda metà dello scambio è il campione di prova):
Non sempre, naturalmente, dipende dal campionamento (ed è casuale, cioè ha bisogno di un sovracampionamento). A volte così:
34: impara: 0.5985972 prova: 0.5915832 migliore: 0.5927856 (9) totale: 437ms rimanente: 5.81s