L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 408
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Buon pomeriggio a tutti.
Lasciami chiarire, quali pacchetti ML usano i partecipanti, o è tutto fatto tramite MQL?
Sorprendentemente il file è leggibile, la qualità del modello è scarsa, chi vuole controllare su validazione....
Sorprendentemente il file è leggibile, la qualità del modello è debole, chi vuole controllare su validazione....
In un file è scritto
* TruePositives: 853
* TrueNegatives: 1098
* FalsePositive: 732
* FalsiNegativi: 985
cioè quasi 50/50.
Ho ottenuto circa lo stesso risultato per un problema logico leggermente più semplice, motivo per cui ho ipotizzato che gli ingressi di rumore stanno davvero incasinando il risultato RNN.
Il file dice
* TruePositives: 853
* TrueNegatives: 1098
* FalsePositive: 732
* FalsiNegativi: 985
cioè quasi 50/50.
Ho ottenuto circa lo stesso risultato per un problema logico leggermente più semplice, motivo per cui ho ipotizzato che gli input di rumore rovinano molto il risultato RNN.
Lo fa, la generalizzabilità del modello è del 52%, quindi...
Buon pomeriggio a tutti.
Lasciami chiarire, quali pacchetti ML usano i partecipanti, o è tutto fatto tramite MQL?
Di regola, tutto è fatto in R, con l'eccezione di alcuni appassionati che stanno cercando di riscrivere alcuni modelli in MQL. Per quanto riguarda i pacchetti - dipende da quale modello si usa - alberi, reti neurali, reti neurali profonde, ecc.
A quale modello è interessato?
Buona fortuna
Di regola, tutto è fatto in R, tranne alcuni appassionati che cercano di riscrivere alcuni modelli in MCL. Per quanto riguarda i pacchetti, dipende da quale modello si usa - alberi, reti neurali, reti neurali profonde, ecc.
A quale modello è interessato?
Buona fortuna
Hai dimenticato l'ottimizzatore di Reshetov, è usato anche qui ....
Il file dice
* TruePositives: 853
* TrueNegatives: 1098
* FalsePositive: 732
* FalsiNegativi: 985
cioè quasi 50/50.
Ho ottenuto circa lo stesso risultato per un problema logico leggermente più semplice, motivo per cui ho ipotizzato che gli input di rumore rovinano molto il risultato RNN.
Un normale MLP 20-5-1 può farlo per lo stesso problema:
Errore medio sulla formazione (60,0%) trama =0,116 (11,6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sulla convalida (20,0%) sezione =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sul test (20,0%) =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Tempo di calcolo=0,77 min.
Anche se a volte dà anche il 50%, credo di aver bisogno di più di 2 cicli di riqualificazione.
---------------------------------
Rete nnet 20-1-1 di R :
Previsto
Reale 0 1 Errore
0 0.41 0.09 0.18
1 0.24 0.26 0.48
Leggermente peggio, ma lo risolve solo in un paio di secondi.
Ma la RNN ha un errore = 0, sulla sezione di allenamento. E anche questo è bello. Probabilmente scriverò sul blog il mio esperimento
Un normale MLP 20-5-1 può produrre questo allo stesso problema:
Errore medio nella formazione (60,0%) trama =0,116 (11,6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sulla convalida (20,0%) sezione =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sul test (20,0%) =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Tempo di calcolo=0,77 min
---------------------------------
Rete nnet 20-1-1 da R :
Leggermente peggio, ma lo risolve solo in un paio di secondi.Previsto
Reale 0 1 Errore
0 0.41 0.09 0.18
1 0.24 0.26 0.48
Qui dobbiamo capire un po' diversamente, che risolvere un problema non è una cosa difficile, ma è la questione di come il modello si comporterà in futuro. Possiamo imparare rapidamente e senza errori. Ma con i nuovi dati non avremo nulla. Predikshin ha una caratteristica molto buona: su nuovi dati funziona con lo stesso tasso di errore dell'allenamento. Perché non si riqualifica e bla bla bla. E le altre reti possono imparare questo esempio molto rapidamente, ma mostrano risultati molto peggiori su nuovi dati... IMHO
Dobbiamo renderci conto che risolvere il problema non è un compito difficile, ma il modo in cui il modello si comporterà dopo è la questione. Possiamo imparare rapidamente e senza errori. E con i nuovi dati non avremo nulla. Predikshin ha una caratteristica molto buona: su nuovi dati funziona con lo stesso tasso di errore dell'allenamento. Perché non si riqualifica e bla bla bla. E le altre reti possono imparare questo esempio molto rapidamente, ma mostrano risultati molto peggiori su nuovi dati... IMHO
Ecco i nuovi dati:
Errore medio sulla convalida (20,0%) sezione =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio al test (20,0%) sito =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Ecco i nuovi dati:
Errore medio sulla convalida (20,0%) plot =0,111 (11,1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Errore medio sul test (20,0%) trama =0,129 (12,9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
Non sto discutendo, potrebbe essere... :-)