トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3009

 
СанСаныч Фоменко #:
しかし最も重要なことは、利用可能な特徴の予測力が将来も変わらないか、あるいは弱く変化するという理論的な 証明がなければならない。スチームローラー全体において、これが最も重要なことである。

そうでなければ、彼はここにいるのではなく、熱帯の島々にいるはずだ。)

予測能力の安定性は「教師-特性」のペアの特性です

予測能力の安定性は「教師-特性」ペアの特性である。

サンサニッチ・フォメンコ#:

1.分類誤差が20%以下の教師-特性のペアを持っている人はいますか?

簡単です。何十ものデータセットを生成することができます。今ちょうどTP=50とSL=500について調べているところだ。教師のマークアップには平均10%の誤差がある。20%ならプラマイモデルでしょう。
だからポイントは分類の誤差ではなく、すべての損益を足した結果にある。

ご覧の通り、トップモデルの誤差は9.1%で、8.3%の誤差でもそこそこ稼げます。
チャートはOOSのみを示しています。Walking Forwardで週に1回再トレーニングを行い、5年間で合計264回の再トレーニングを行った結果です。
分類誤差9.1%で、50/500=0.1、つまり10%のはずのモデルが0で機能したのは興味深いことです。1%はスプレッド(バーごとの最小値。)

 

まず、モデルの内部がゴミだらけであることに気づかなければならない......。

訓練された木製のモデルを、中のルールとそのルールの統計に分解すると

のようにする:

     len  freq   err                                                                                 condition pred
315    3 0.002 0.417    X[,1]>7.49999999999362e-05 & X[,2]<=-0.00026499999999996 & X[,4]<=0.000495000000000023    1
483    3 0.000 0.000     X[,1]<=0.000329999999999941 & X[,8]>0.000724999999999976 & X[,9]>0.000685000000000047    1
484    3 0.002 0.273      X[,1]>0.000329999999999941 & X[,8]>0.000724999999999976 & X[,9]>0.000685000000000047   -1
555    3 0.001 0.333   X[,5]<=0.000329999999999941 & X[,7]>0.000309999999999921 & X[,8]<=-0.000144999999999951   -1
687    3 0.001 0.250 X[,2]<=-0.00348499999999996 & X[,7]<=-0.000854999999999939 & X[,9]<=-4.99999999999945e-05    1
734    3 0.003 0.000    X[,7]>-0.000854999999999939 & X[,8]>0.000724999999999865 & X[,9]<=0.000214999999999965    1
1045   3 0.003 0.231   X[,1]<=-0.000310000000000032 & X[,4]>0.000105000000000022 & X[,4]<=0.000164999999999971   -1
1708   3 0.000 0.000    X[,3]>0.00102499999999994 & X[,6]<=0.000105000000000022 & X[,7]<=-0.000650000000000039    1
1709   3 0.002 0.250     X[,3]>0.00102499999999994 & X[,6]<=0.000105000000000022 & X[,7]>-0.000650000000000039   -1
1984   3 0.001 0.000     X[,1]<=0.000329999999999941 & X[,8]>0.000724999999999976 & X[,9]>0.000674999999999981    1
2654   3 0.003 0.000        X[,4]<=0.00205000000000011 & X[,5]>0.0014550000000001 & X[,9]<=0.00132999999999994    1
2655   3 0.000 0.000         X[,4]<=0.00205000000000011 & X[,5]>0.0014550000000001 & X[,9]>0.00132999999999994   -1
2656   3 0.001 0.200         X[,3]<=0.00245499999999998 & X[,4]>0.00205000000000011 & X[,5]>0.0014550000000001   -1
2657   3 0.000 0.000          X[,3]>0.00245499999999998 & X[,4]>0.00205000000000011 & X[,5]>0.0014550000000001    1
2852   3 0.000 0.000                X[,2]<=-0.001135 & X[,8]>-0.000130000000000075 & X[,8]>0.00128499999999998   -1
2979   3 0.001 0.200     X[,1]>0.000930000000000097 & X[,1]>0.00129000000000012 & X[,8]<=-0.000275000000000025   -1


のように、ルール errの 誤差の出現頻度依存性を分析します。


となります。


、関数の関数の


ルールは非常によく機能するが、そのようなルールは非常にまれで、それに関する統計の信憑性を疑うことに意味がある。

 
mytarmailS #:

まず、その模型の内部がゴミだらけであることに気づかなければならない......。

訓練された木製のモデルを、中にあるルールとそのルールの統計に分解すると。

のようなものだ:

そして、ルール errの 誤差のサンプル中の出現頻度freqへの 依存性を分析する。

次のようになる。

最近の投稿の暗闇に一筋の光が差し込んだようだ。
モデルの誤差を適切に解析すれば、面白いものが見つかる。我々は非常に迅速かつ任意のgpu、smsと登録なしで受け入れます。
 
Maxim Dmitrievsky #:
最近の記事の暗闇に一筋の光を
モデルエラーをきちんと解析すれば、面白いものが見つかる。gpu、sms、登録なしで非常に迅速に受け付けます。

もしあれば、それについての記事があるでしょう。

 
mytarmailS #:

もしあれば、それについての記事があるだろう。

ノーム、前回の記事も同じような内容だったよ。でも、あなたのやり方がより速いなら、それはプラスだよ。
 
Maxim Dmitrievsky #:
ノーム、前回の記事も同じような内容だった。でも、あなたのやり方がより速いのなら、それはプラスだよ。

どういう意味ですか?

 
mytarmailS #:

より速くというのは?

スピードという意味で。
 
Maxim Dmitrievsky #:
スピードに関しては

5kmで約5~15秒

 
mytarmailS #:

5キロのサンプルで約5~15秒。

つまり、最初からTCを取得するまでの全プロセスです。

2つのモデルを何度も再トレーニングしているので、とても速いとは言えませんが、許容範囲です。

そして最後には、何が除外されたのか正確にはわかりません。

 
Maxim Dmitrievsky #:

つまり、最初からTCを獲得するまでの全過程だ。

2つのモデルを何度も再トレーニングしているので、あまり速くはないが、許容範囲だ。

最終的に、何を選別したのかはわからない。

5kのトレーニング。

60kを検証。


モデルのトレーニング - 1-3秒

ルール抽出 - 5-10秒

各ルール(2~3万ルール)の妥当性チェック 60k 1-2 分


もちろん全ては概算であり、特徴量とデータ数に依存する。

理由: