L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1288

 
Maxim Dmitrievsky:

c'est-à-dire que la non-stationnarité n'est pas tuée par toutes ces conneries et qu'il vaut mieux ne pas trouver de modèles.

Ne pas tuer la non-stationnarité). Il est impossible de la tuer, puisque, par définition, vous ne pouvez pas isoler de manière absolument précise quoi que ce soit de n'importe quelle BP ou isoler quoi que ce soit qui bouge du tout de la BP, mais seulement une partie de celle-ci, et seulement selon vos critères, une partie significative restera toujours dans la BP, et générera la non-stationnarité.

En général, la stationnarité-non-stationnarité n'est pas un très bon critère.

 
Yuriy Asaulenko:

Ne pas tuer la non-stationnarité). Il est impossible de la tuer, parce que vous ne pouvez pas, par définition, isoler absolument quoi que ce soit de toute BP ou isoler de la BP tout ce qui bouge, mais seulement une partie, et selon vos critères, une partie significative restera toujours dans la BP, et générera la non-stationnarité.

En général, la stationnarité-non-stationnarité n'est pas un critère très important.

Dans la BP nue, la régularité n'est que dans la cyclicité. C'est un axiome. Si les cycles ne peuvent être isolés, rien ne fonctionne par définition.

La même tentative de conduire à la stationnarité est une tentative d'isoler un signal constant, qui, comme dirait Alexander, n'existe pas
 
Maxim Dmitrievsky:

Dans la BP nue, le modèle n'est que cyclique. C'est un axiome. Si les cycles ne peuvent être isolés, alors rien ne fonctionne par définition.

Je pense que l'axiome est moyen). Prenez le son, la musique, la parole. Il n'y a pas de cycle ici, seulement un cycle à court terme, le reste est imprévisible. Et même dans une cyclicité à court terme, vous n'êtes pas vraiment compréhensible - un orchestre entier joue, et chacun a sa propre partie).

 
Yuriy Asaulenko:

Je pense que l'axiome est moyen). Prenez le son, la musique, la parole. Il n'y a pas de cyclicité, seulement du court terme, le reste est imprévisible. Et même avec une cyclicité à court terme, il est difficile de comprendre - tout un orchestre joue, et chacun a sa propre partie).

Ce n'est pas comme si quelqu'un avait essayé de retracer la musique ou le son. Il y a un cyclique, des battements en quelque sorte, et il y a un acyclique qui est imprévisible.

il y a des BP prévisibles, il y a des BP imprévisibles
 

Permutation rejetée et suppression des prédicteurs par 1 sur le graphique valide. Le hasard complet, tout comme sur le terrain d'entraînement.

Importance des prédicteurs par force brute (en supprimant 1) valable
caractéristique, valeur absolue, valeur relative * 100
1) 23 0.05544194501249716 100
2) 53 0.04867290288234849 87
3) 32 0.03782135076252724 68
4) 37 0.03541102077687447 63
5) 26 0.03532324097876799 63
6) 33 0.03362697736099274 60
7) 40 0.03278533635676495 59
8) 13 0.03230890464933017 58
9) 60 0.03111487121639406 56
10) 24 0.03067918054294078 55
11) 8 0.02900490852298082 52
12) 10 0.02877257422711971 51
13) 49 0.02715383847459318 48
14) 64 0.02681691125087354 48
15) 38 0.02662037037037041 48
16) 35 0.02532532532532533 45
17) 1 0.02212475633528266 39
18) 57 0.02151192288178594 38
19) 28 0.02077687443541104 37
20) 12 0.01949317738791423 35
21) 11 0.01935357107770902 34
22) 56 0.01921172509407804 34
23) 19 0.01870370370370372 33
24) 27 0.01806684733514002 32
25) 46 0.01805450097021855 32
26) 3 0.0175925925925926 31
27) 42 0.01603966170895305 28
28) 44 0.01603966170895305 28
29) 4 0.01568141958114105 28
30) 54 0.01553166069295103 28
31) 36 0.01553166069295103 28
32) 25 0.01440866453921286 25
33) 63 0.01370370370370372 24
34) 41 0.01329274479959414 23
35) 55 0.01322751322751325 23
36) 15 0.01322751322751325 23
37) 17 0.01289590426080678 23
38) 39 0.01284348864994028 23
39) 7 0.01260422726391314 22
40) 9 0.012243648607285 22
41) 43 0.01221434200157606 22
42) 50 0.01074595722483046 19
43) 62 0.0106090745476935 19
44) 52 0.01058201058201058 19
45) 21 0.009986426216792743 18
46) 59 0.009936766034327027 17
47) 47 0.009652712202287306 17
48) 14 0.009616300104732023 17
49) 58 0.009333730513355176 16
50) 0 0.009109109109109115 16
51) 22 0.008516537928302648 15
52) 5 0.008285913946291301 14
53) 51 0.008285913946291301 14
54) 16 0.007571107018620848 13
55) 6 0.007467144563918782 13
56) 18 0.00722673893405601 13
57) 20 0.006734006734006759 12
58) 45 0.005037037037037062 9
59) 30 0.004840067340067367 8
60) 48 0.003703703703703709 6
61) 29 0.002872678772955772 5
62) 31 0.002849002849002857 5
63) 61 0.001154128632882168 2
64) 34 0.0003138731952291307 0
65) 2 -0.0009033423667569873 -1
Importance des prédicteurs selon la méthode de permutation
0, valeur absolue, valeur relative * 100
1) 14 0.04838455476753351 99
2) 28 0.04332634521313766 89
3) 40 0.03703703703703703 76
4) 48 0.0356709168184578 73
5) 37 0.03461279461279465 71
6) 26 0.03151827324012757 65
7) 3 0.02880658436213995 59
8) 39 0.02445842068483578 50
9) 34 0.02417848115177496 49
10) 51 0.0228526398739165 47
11) 6 0.02062678062678064 42
12) 52 0.01807496118873364 37
13) 19 0.01765719207579675 36
14) 17 0.01600654282042296 33
15) 50 0.01582491582491585 32
16) 25 0.01527640400043961 31
17) 36 0.01527640400043961 31
18) 44 0.01488195143784271 30
19) 1 0.01475021533161069 30
20) 47 0.01404853128991063 29
21) 33 0.01257220523275571 25
22) 22 0.01227513227513227 25
23) 41 0.01095008051529794 22
24) 7 0.0109137350516661 22
25) 16 0.01020525169131981 21
26) 43 0.009586056644880214 19
27) 4 0.009417989417989436 19
28) 49 0.008301404853129024 17
29) 35 0.007797270955165692 16
30) 27 0.007680976430976427 15
31) 29 0.00753851196329075 15
32) 23 0.00753851196329075 15
33) 59 0.006652765365902091 13
34) 24 0.006644880174291934 13
35) 15 0.006374326849104328 13
36) 13 0.006297363646066811 13
37) 38 0.006224712107065045 12
38) 55 0.005901505901505899 12
39) 10 0.005698005698005715 11
40) 61 0.005642761875448876 11
41) 9 0.005427841634738195 11
42) 42 0.005152979066022578 10
43) 0 0.00490852298081218 10
44) 2 0.003703703703703709 7
45) 30 0.003406967798659233 7
46) 62 0.003122308354866488 6
47) 31 0.003122308354866488 6
48) 64 0.002295252999478359 4
49) 21 0.0008465608465608732 1
50) 11 0.0006224712107065211 1
51) 53 0.0005336748852599049 1
52) 12 0.0005336748852599049 1
53) 58 0.0002916302128900816 0
54) 5 0.0002153316106804914 0
55) 8 -0.0001086130118387874 0
56) 18 -0.0007739082365947891 -1
57) 20 -0.0008417508417508102 -1
58) 54 -0.0009746588693956837 -2 (30)
59) 46 -0.002010582010582018 -4 (25)
60) 32 -0.002348169495143548 -4 (3)
61) 57 -0.003145611364789413 -6 (18)
62) 56 -0.004743162781309929 -9 (22)
63) 45 -0.00597371565113497 -12 (58)
64) 60 -0.007107107107107102 -14 (9)
65) 63 -0.008547008547008517 -17 (33)
dans () pour les 7 derniers - la position de ce prédicteur quand il est retiré par 1 - vous pouvez voir que la position est aléatoire


Et dans l'article sur cette méthode, tout est très bien.

Pourquoi est-ce possible ?

Dans l'article, tous les prédicteurs (6 au total) sont importants et cette méthode élimine bien un prédicteur de bruit. Sur mes 65 prédicteurs, la moitié ou la plupart d'entre eux peuvent être bruyants.

De plus, la forêt est toujours aléatoire et lorsque l'on calcule l'erreur en enlevant 1, des déviations aléatoires pourraient également être introduites, ce qui pourrait déplacer l'importance du prédicteur sur l'échelle d'importance.

De plus, ce qui rend la méthode de permutation instable, c'est qu'en pratique, l'arbre trouvera toujours un autre prédicteur, qui sera une division presque aussi bonne, et la permutation supprime en quelque sorte ce nœud (rendant le résultat de son travail aléatoire).

En général, sur mes données, la permutation (dans ma version, c'est-à-dire en réorganisant les lignes du prédicteur à vérifier) ne fonctionne pas.

Maxim, vous l'avez implémenté différemment (quelque chose avec une distribution normale). Vous n'avez pas fait de comparaison avec la suppression par 1 ? Ou avez-vous pris les résultats de l'article pour argent comptant ?

 
Maxim Dmitrievsky:

Ce n'est pas comme si quelqu'un avait essayé d'échanger de la musique ou du son. Il y a le cyclique de la même manière, les battements d'une certaine manière, et l'acyclique imprévisible.

Il y a plus de cyclicité dans le son, la musique que dans le marché. Faisons de la musique ! Je suis sûr que les résultats ne seront pas meilleurs que sur le marché).

 
elibrarius:

J'ai la permutation et la suppression des prédicteurs, un par un. Le hasard complet, tout comme sur le terrain d'entraînement.
Et dans l'article sur cette méthode, tout est très bien.

Pourquoi en est-il ainsi ?

Dans l'article, tous les prédicteurs (6 au total) sont importants et cette méthode élimine très bien un prédicteur bruyant. Sur mes 65 prédicteurs, la moitié ou la plupart d'entre eux peuvent être bruyants.

De plus, la forêt est toujours aléatoire et lorsque l'on calcule l'erreur en enlevant 1, il pourrait également y avoir des écarts aléatoires, ce qui pourrait déplacer l'importance du prédicteur sur l'échelle d'importance.

De plus, ce qui rend la méthode de permutation instable, c'est qu'en pratique, l'arbre trouvera toujours un autre prédicteur, qui sera une division presque aussi bonne, et la permutation supprime en quelque sorte ce nœud (rendant le résultat de son travail aléatoire).

En général, sur mes données, la permutation (dans ma version, c'est-à-dire en réorganisant les lignes du prédicteur à vérifier) ne fonctionne pas.

Maxim, vous l'avez implémenté différemment (quelque chose avec une distribution normale). Vous n'avez pas fait de comparaison avec la suppression par 1 ? Ou avez-vous pris les résultats de l'article pour argent comptant ?

Tout d'abord, vous devez décorréler (si vous ne l'avez pas déjà fait), c'est-à-dire supprimer toutes les corrélations, disons, supérieures à 0,9 au moins. Sinon, la permutation ne fonctionne pas

je n'ai pas vraiment fait de comparaisons, j'ai juste vu qu'il réduit l'erreur un, supprime les choses inutiles et simplifie le modèle (presque aucune perte) c'est deux

je peux trouver des exemples en python pour d'autres modèles et comparer avec ce que j'ai obtenu avec alglib, mais je m'ennuie tellement.

 
Maxim Dmitrievsky:

Pour commencer, vous devez décorréler (si vous ne l'avez pas déjà fait), c'est-à-dire supprimer toutes les corrélations supérieures à, disons, 0,9 au moins. Sinon, le remaniement ne fonctionne pas.

Je n'ai pas approfondi les comparaisons, j'ai juste vu qu'il réduit les erreurs cette fois, jette les choses inutiles et simplifie le modèle (presque sans pertes) ; cela fait deux
J'ai essayé avec la suppression par Spearman 0.9, aucune amélioration.
 
elibrarius:
J'ai essayé avec Spearman 0.9, pas d'amélioration.

quelles sont les erreurs finales ? les deux modèles et comment ils fonctionnent sur les nouvelles données

mec, c'est une analyse très profonde à faire

 
Yuriy Asaulenko:

Dans le son, dans la musique, il y a beaucoup plus de cyclicité que sur le marché. Faisons de la musique ! Je suis sûr que les résultats ne seront pas meilleurs que sur le marché).

Vous pouvez simplement courir en cercle en agitant les bras, le résultat sera à peu près le même).