L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1239

 
Maxim Dmitrievsky:

Ho una classe più piccola e ho un errore di 0,14-0,4.

Dal 14% al 40% nel test?

 
Graal:

Dal 14% al 40% nel test?

bene, traine 14 test 40

 
Vizard_:

L'accuratezza e l'errore di classificazione sono cose diverse. accuratezza e % di campione (test-train).

è chiaro in linea di principio - supera la traccia... 0,6 di precisione su questo set di dati sul test (20% del campione)...

errore di classificazione finora...molto tempo per rifare lì ))

Ho il 20% di formazione in alglib, 80% OOB, e ho fatto lo stesso qui

Ho fatto questo in python e ho ottenuto questo

score(X,y,sample_weight=None)[source]

Restituisce l'accuratezza media sui dati di prova e sulle etichette date.


Non ci capisco niente, ci ho appena preso la mano in python oggi, ci riproverò domani. Se il test e la traccia sono al 50%, allora è così


 
Vizard_:

Il mio set di dati (precisione) su questo è
tendenza (80% del campione) = 0,619
test(20% del campione) = 0,612 OOS

Un po' di scavo, testa a testa meno. È così che si fa, non il 20% del test))))

Il 50% non è sufficiente, 300 osservazioni non sono niente.

Qual è stato l'addestramento?
 
elibrario:
Imparare dal 20% è qualcosa di nuovo))

Penso che l'errore lì non sia cambiato molto, ecco perché l'ho fatto in quel modo, una forte regolarizzazione insomma

 
Maxim Dmitrievsky:

Penso che l'errore non cambiasse molto lì, ecco perché lo facevo in quel modo, una forte regolarizzazione insomma

Come potrebbe non essere cambiato? Il 14 e il 40% è una grande differenza.
Per esempio, 60x60 come Wizard - è vero!

 
Vizard_:

La stessa cosa che ho fatto con Doc e Toxic, Python e R non ce l'hanno...non ve lo dico...

Almeno l'impalcatura o le reti?
 
Elibrarius:

Come potrebbe non esserlo? Il 14 e il 40% è una grande differenza.
60 su 60 come un mago - ecco!

Bene, controlleremo tutti i modelli che sono in python... cioè, quelli che sono in circolazione... non fino a domani... non fino a domani...

Forse abbiamo bisogno di qualche altro preprocesso.
 

Non capite che non potete fare soldi con il forex?)

È più facile diventare un programmatore e ottenere un lavoro ben pagato che impegnarsi in questo masochismo.

 

in breve in alglib errore di classificazione e logloss... Il logloss non ha alcun senso, l'errore di classificazione nella foresta cade a zero su un campione di apprendisti>0,8 e oob 0,2

rmse non è buono per la classificazione

Ecco perché ho preso un piccolo campione di allenamento, per una sorta di errore, ma è ancora piccolo. Non so come fare il confronto con Python