L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1239
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Ho una classe più piccola e ho un errore di 0,14-0,4.
Dal 14% al 40% nel test?
Dal 14% al 40% nel test?
bene, traine 14 test 40
L'accuratezza e l'errore di classificazione sono cose diverse. accuratezza e % di campione (test-train).
è chiaro in linea di principio - supera la traccia... 0,6 di precisione su questo set di dati sul test (20% del campione)...
errore di classificazione finora...molto tempo per rifare lì ))
Ho il 20% di formazione in alglib, 80% OOB, e ho fatto lo stesso qui
Ho fatto questo in python e ho ottenuto questo
score(X,y,sample_weight=None)[source]Restituisce l'accuratezza media sui dati di prova e sulle etichette date.
Non ci capisco niente, ci ho appena preso la mano in python oggi, ci riproverò domani. Se il test e la traccia sono al 50%, allora è così
Il mio set di dati (precisione) su questo è
tendenza (80% del campione) = 0,619
test(20% del campione) = 0,612 OOS
Un po' di scavo, testa a testa meno. È così che si fa, non il 20% del test))))
Il 50% non è sufficiente, 300 osservazioni non sono niente.
Imparare dal 20% è qualcosa di nuovo))
Penso che l'errore lì non sia cambiato molto, ecco perché l'ho fatto in quel modo, una forte regolarizzazione insomma
Penso che l'errore non cambiasse molto lì, ecco perché lo facevo in quel modo, una forte regolarizzazione insomma
Come potrebbe non essere cambiato? Il 14 e il 40% è una grande differenza.
Per esempio, 60x60 come Wizard - è vero!
La stessa cosa che ho fatto con Doc e Toxic, Python e R non ce l'hanno...non ve lo dico...
Come potrebbe non esserlo? Il 14 e il 40% è una grande differenza.
60 su 60 come un mago - ecco!
Bene, controlleremo tutti i modelli che sono in python... cioè, quelli che sono in circolazione... non fino a domani... non fino a domani...
Forse abbiamo bisogno di qualche altro preprocesso.Non capite che non potete fare soldi con il forex?)
È più facile diventare un programmatore e ottenere un lavoro ben pagato che impegnarsi in questo masochismo.
in breve in alglib errore di classificazione e logloss... Il logloss non ha alcun senso, l'errore di classificazione nella foresta cade a zero su un campione di apprendisti>0,8 e oob 0,2
rmse non è buono per la classificazione
Ecco perché ho preso un piccolo campione di allenamento, per una sorta di errore, ma è ancora piccolo. Non so come fare il confronto con Python