トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1288

 
マキシム・ドミトリエフスキー

つまり、非定常性はそんなくだらないことで殺されることはなく、パターンは見つからない方が良いのです

非定常性を殺してはいけない)。定義上、どのBPからも絶対に正確に何かを分離したり、BPから全く動かないものを分離することはできないので、それを殺すことは不可能であり、その一部だけが、あなたの基準によってのみ、かなりの部分が常にBPに残り、非定常性を発生させることになるのです。

一般に、定常性-非定常性はあまり良い基準ではありません。

 
ユーリイ・アサウレンコ

非定常性を殺してはいけない(Don't kill non-stationarity)それを殺すことは不可能です。なぜなら、あなたは定義上、どんなBPからも何かを絶対に分離することはできませんし、動くものをBPから全く分離することもできませんが、その一部だけが、あなたの基準によってのみ、かなりの部分が常にBPに残り、非定常性を発生させることになるからです。

一般に、定常性-非定常性というのは、あまり基準にならない。

裸のBPでは、規則性は循環性の中にしかありません。それは公理である。サイクルが特定できない場合は、定義上、何も機能しません。

同じように定常性に導こうとする試みは、アレキサンダーが言うように、存在しない一定の信号を分離する試みである
 
マキシム・ドミトリエフスキー

裸のBPでは、このパターンは周期的なものに過ぎません。これは公理である。もしサイクルが分離できないのであれば、定義上、何も機能しないことになります。

公理はまあまあだと思います)。音、音楽をとる、言う。そこにはサイクルはなく、短期的なものだけで、あとは予測不可能なのです。そして、短期的な循環の中でさえ、あなたは本当に理解できないのです。オーケストラ全体が演奏し、誰もが自分のパートを持っているのです)。

 
ユーリイ・アサウレンコ

公理はまあまあだと思います)。音、音楽をとる、言う。そこには周期性はなく、短期的なものだけで、あとは予測不可能です。そして、短期的な周期性でも理解するのは難しい。オーケストラ全体が演奏しており、誰もが自分のパートを持っているのだから)。

音楽や音をトレースしようとした人がいたわけではありません。周期的なもの、ある種のビート、そして予測不可能な非周期的なものがあるのです。

予測可能なBPと予測不可能なBPがある
 

有効なプロット上で1ずつ順列と予測変数の除去を却下。トレーニングプロットと同じように、完全にランダムです。

ブルートフォースによる予測変数の重要度(1 を削除して)有効
特徴量、絶対値、関連値 * 100
1) 23 0.05544194501249716 100
2) 53 0.04867290288234849 87
3) 32 0.03782135076252724 68
4) 37 0.03541102077687447 63
5) 26 0.03532324097876799 63
6) 33 0.03362697736099274 60
7) 40 0.03278533635676495 59
8) 13 0.03230890464933017 58
9) 60 0.03111487121639406 56
10) 24 0.03067918054294078 55
11) 8 0.02900490852298082 52
12) 10 0.02877257422711971 51
13) 49 0.02715383847459318 48
14) 64 0.02681691125087354 48
15) 38 0.02662037037037041 48
16) 35 0.02532532532532533 45
17) 1 0.02212475633528266 39
18) 57 0.02151192288178594 38
19) 28 0.02077687443541104 37
20) 12 0.01949317738791423 35
21) 11 0.01935357107770902 34
22) 56 0.01921172509407804 34
23) 19 0.01870370370370372 33
24) 27 0.01806684733514002 32
25) 46 0.01805450097021855 32
26) 3 0.0175925925925926 31
27) 42 0.01603966170895305 28
28) 44 0.01603966170895305 28
29) 4 0.01568141958114105 28
30) 54 0.01553166069295103 28
31) 36 0.01553166069295103 28
32) 25 0.01440866453921286 25
33) 63 0.01370370370370372 24
34) 41 0.01329274479959414 23
35) 55 0.01322751322751325 23
36) 15 0.01322751322751325 23
37) 17 0.01289590426080678 23
38) 39 0.01284348864994028 23
39) 7 0.01260422726391314 22
40) 9 0.012243648607285 22
41) 43 0.01221434200157606 22
42) 50 0.01074595722483046 19
43) 62 0.0106090745476935 19
44) 52 0.01058201058201058 19
45) 21 0.009986426216792743 18
46) 59 0.009936766034327027 17
47) 47 0.009652712202287306 17
48) 14 0.009616300104732023 17
49) 58 0.009333730513355176 16
50) 0 0.009109109109109115 16
51) 22 0.008516537928302648 15
52) 5 0.008285913946291301 14
53) 51 0.008285913946291301 14
54) 16 0.007571107018620848 13
55) 6 0.007467144563918782 13
56) 18 0.00722673893405601 13
57) 20 0.006734006734006759 12
58) 45 0.005037037037037062 9
59) 30 0.004840067340067367 8
60) 48 0.003703703703703709 6
61) 29 0.002872678772955772 5
62) 31 0.002849002849002857 5
63) 61 0.001154128632882168 2
64) 34 0.0003138731952291307 0
65) 2 -0.0009033423667569873 -1
パーミュテーション法による予測変数の重要度
0, 絶対値, 関連値 * 100
1) 14 0.04838455476753351 99
2) 28 0.04332634521313766 89
3) 40 0.03703703703703703 76
4) 48 0.0356709168184578 73
5) 37 0.03461279461279465 71
6) 26 0.03151827324012757 65
7) 3 0.02880658436213995 59
8) 39 0.02445842068483578 50
9) 34 0.02417848115177496 49
10) 51 0.0228526398739165 47
11) 6 0.02062678062678064 42
12) 52 0.01807496118873364 37
13) 19 0.01765719207579675 36
14) 17 0.01600654282042296 33
15) 50 0.01582491582491585 32
16) 25 0.01527640400043961 31
17) 36 0.01527640400043961 31
18) 44 0.01488195143784271 30
19) 1 0.01475021533161069 30
20) 47 0.01404853128991063 29
21) 33 0.01257220523275571 25
22) 22 0.01227513227513227 25
23) 41 0.01095008051529794 22
24) 7 0.0109137350516661 22
25) 16 0.01020525169131981 21
26) 43 0.009586056644880214 19
27) 4 0.009417989417989436 19
28) 49 0.008301404853129024 17
29) 35 0.007797270955165692 16
30) 27 0.007680976430976427 15
31) 29 0.00753851196329075 15
32) 23 0.00753851196329075 15
33) 59 0.006652765365902091 13
34) 24 0.006644880174291934 13
35) 15 0.006374326849104328 13
36) 13 0.006297363646066811 13
37) 38 0.006224712107065045 12
38) 55 0.005901505901505899 12
39) 10 0.005698005698005715 11
40) 61 0.005642761875448876 11
41) 9 0.005427841634738195 11
42) 42 0.005152979066022578 10
43) 0 0.00490852298081218 10
44) 2 0.003703703703703709 7
45) 30 0.003406967798659233 7
46) 62 0.003122308354866488 6
47) 31 0.003122308354866488 6
48) 64 0.002295252999478359 4
49) 21 0.0008465608465608732 1
50) 11 0.0006224712107065211 1
51) 53 0.0005336748852599049 1
52) 12 0.0005336748852599049 1
53) 58 0.0002916302128900816 0
54) 5 0.0002153316106804914 0
55) 8 -0.0001086130118387874 0
56) 18 -0.0007739082365947891 -1
57) 20 -0.0008417508417508102 -1
58) 54 -0.0009746588693956837 -2 (30)
59) 46 -0.002010582010582018 -4 (25)
60) 32 -0.002348169495143548 -4 (3)
61) 57 -0.003145611364789413 -6 (18)
62) 56 -0.004743162781309929 -9 (22)
63) 45 -0.00597371565113497 -12 (58)
64) 60 -0.007107107107107102 -14 (9)
65) 63 -0.008547008547008517 -17 (33)
()の中の一番下の7つ - この予測変数の位置を1つ減らしたとき - 位置がランダムであることがわかります。


そして、このメソッドに関する記事では、すべてが非常に素晴らしいです。

なぜ、そうなるのか?

この論文では、すべての予測因子(計6個)が重要であり、この方法は1個のノイズ予測因子をうまくふるい落とすことができます。65個の予測変数のうち、半分か大部分はノイジーかもしれません。

さらにフォレストはまだランダムであり、1を削除して誤差を計算すると、ランダムな偏差も入ってきて、予測因子の重要度の尺度がずれる可能性があるのです。

さらに、並べ替えの方法を不安定にしているのは、実際には、ツリーは常に他の予測器を見つけ、それはほとんど同じように良い分割となり、並べ替えはこのノードを取り除くようなもの(その仕事の結果をランダムにする)であるということです。

一般的に、私のデータでは、並べ替え(私のバージョンでは、チェックされる予測変数の行を並べ替えること)はうまくいきません。

マキシムさんは、違う方法で(正規分布を持つもの)実装したのですね。1による除去との比較はしていないのですか?それとも、記事の結果を鵜呑みにしたのでしょうか?

 
マキシム・ドミトリエフスキー

まあ、音楽や音を交換しようとした人はいないでしょうけど。同じようにサイクリックで、ある種のビートがあり、アサイクリックで予測不可能なものがあります。

音、音楽には市場よりも周期性がある。Let's trek on music!きっと、市販品よりも良い結果が得られると思います。)

 
エリブラリウス

予測変数の順列と削除を1回ずつ行っている。トレーニングプロットと同じように、完全にランダムです。
そして、このメソッドに関する記事では、すべてが非常に素晴らしいです。

なぜ、そうなるのでしょうか。

この論文では、すべての予測因子(計6個)が重要であり、この方法は1個のノイズの多い予測因子を非常によく除去しています。65個の予測変数のうち、半分か大部分はノイジーかもしれません。

さらにフォレストはまだランダムであり、1を削除して誤差を計算する場合、ランダムな偏差も存在し、予測因子の重要性の尺度がずれる可能性があります。

さらに、並べ替えの方法を不安定にしているのは、実際には、ツリーは常に他の予測器を見つけ、それはほとんど同じように良い分割となり、並べ替えはこのノードを取り除くようなもの(その仕事の結果をランダムにする)であるということです。

一般的に、私のデータでは、並べ替え(私のバージョンでは、チェックされる予測変数の行を並べ替えること)はうまくいきません。

マキシムさんは、違う方法で(正規分布を持つもの)実装したのですね。1による除去との比較はしていないのですか?それとも、記事の結果を鵜呑みにしたのでしょうか?

まず、(まだやっていなければ)相関を取る、つまり、少なくとも0.9以上の相関をすべて取り除く必要があります。そうでなければ、順列はうまくいきません

比較はしていませんが、誤差が少なくなること、不要なものを取り除き、モデルを単純化できること(損失がほとんどない)、この2点だけです。

Pythonで他のモデルの例を探して、alglibで得たものと比較するかもしれませんが、あまりに退屈です。

 
マキシム・ドミトリエフスキー

まず始めに、decorrelate(まだしていない場合)、つまり、少なくとも0.9以上の相関をすべて取り除く必要があります。そうでなければ、リシャッフルは機能しない

比較に深入りせず、今回はエラーを減らし、不要なものを捨て、モデルを単純化した(ほぼ無損失)ことを見ただけで、2つの
Spearman 0.9による除去で試してみましたが、改善されませんでした。
 
エリブラリウス
Spearman 0.9で試してみましたが、改善されませんでした。

最終的な誤差は? 両モデルと新しいデータでの動作について

読み解く

 
ユーリイ・アサウレンコ

音の世界、音楽の世界では、市場よりも多くの循環性があります。Let's trek on music!市販品と変わらない仕上がりになると思います)。

腕を振ってぐるぐる回っても、結果はほぼ同じです。)