L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1239

 
Maxim Dmitrievsky:

J'ai une classe plus petite. J'ai une erreur de 0.14\0.4.

14% à 40% au test ?

 
Graal:

14% à 40% au test ?

bien, stagiaire 14 test 40

 
Vizard_:

la précision et l'erreur de classification sont des choses différentes. la précision et le % d'échantillon (test-train).

c'est clair en principe - ça dépasse la trace... Une précision de 0,6 sur ce jeu de données sur le test (20% de l'échantillon) fera...

erreur de classement jusqu'à présent...long à refaire là ;))

J'ai 20% de formation en alglib, 80% en OOB, et j'ai fait la même chose ici

J'ai fait cela en python et j'ai obtenu ceci

score(X,y,sample_weight=None)[source]

Renvoie la précision moyenne sur les données de test et les étiquettes données.


Je n'y comprends rien, je viens de me débrouiller en python aujourd'hui, je vais réessayer demain. Si le test et la trace sont de 50%, alors c'est comme ceci


 
Vizard_:

Mon jeu de données (précision) pour celui-ci est le suivant
tendance(80% de l'échantillon) = 0.619
test(20% de l'échantillon) = 0.612 OOS

Un peu de creusement, la tête en moins. C'est comme ça qu'il faut faire, pas avec 20 % du test)))).

50 %, ce n'est pas suffisant, 300 observations, ce n'est rien.

Quelle était la formation ?
 
elibrarius:
Apprendre à 20%, c'est nouveau))

Je pense que l'erreur n'a pas beaucoup changé, c'est pourquoi je l'ai fait de cette façon, une forte régularisation en somme.

 
Maxim Dmitrievsky:

Je pense que l'erreur ne changeait pas beaucoup à cet endroit, c'est pourquoi j'ai procédé de cette façon, une forte régularisation en somme.

Comment cela aurait-il pu ne pas changer ? 14 et 40%, c'est une grande différence.
Par exemple, 60x60 comme dans Wizard - c'est vrai !

 
Vizard_:

La même chose que j'ai fait avec Doc et Toxic, Python et R n'ont pas ça... je ne vous le dirai pas...

Au moins les échafaudages ou les filets ?
 
Elibrarius:

Comment pourrait-il en être autrement ? 14 et 40%, c'est une grande différence.
60 sur 60 comme un magicien - c'est tout !

Eh bien, nous allons vérifier tous les modèles qui sont en python... je veux dire, ceux qui sont en circulation... pas avant demain... pas avant demain...

Peut-être que nous avons besoin d'un peu plus de prétraitement.
 

Ne comprenez-vous pas que vous ne pouvez pas gagner de l'argent sur le forex ?)

Il est plus facile de devenir programmeur et d'obtenir un emploi bien rémunéré que de s'adonner à ce masochisme.

 

en bref dans alglib erreur de classification et logloss... Le logloss n'a aucun sens, l'erreur de classification dans la forêt tombe à zéro sur un échantillon de stagiaires>0.8 et oob 0.2

rmse n'est pas bon pour la classification

C'est pourquoi j'ai pris un petit échantillon d'entraînement, pour une sorte d'erreur, mais c'est toujours petit. Je ne sais pas comment comparer avec Python.