トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 130

 

というわけで......。

DTWアルゴリズムを使ってクラスタリングしてみました。

ある価格を取り上げ、そのスライディングウィンドウ部分でRFを学習させた後、再び同じ価格と同じスライディングウィンドウ部分を取り出してDTWアルゴリズムでクラスタリングし、RFを学習させました

DTWアルゴリズムでは、学習時と新規データ認識時の誤差が2-4%減少した。

予測変数の数が多ければ、もっと誤差を小さくできると思いますが、アルゴリズムがものすごく遅いです。

 
mytarmailS:

というわけで......。

DTWアルゴリズムを使ってクラスタリングしてみました。

ある価格を取り上げ、そのスライディングウィンドウ部分でRFを学習させた後、再び同じ価格と同じスライディングウィンドウ部分を取り出してDTWアルゴリズムでクラスタリングし、RFを学習させました

DTWアルゴリズムでは、学習時と新規データ認識時の誤差が2-4%減少した。

予測変数の数が多ければ、誤差はもっと小さくなると思いますが、アルゴリズムがものすごく遅いです。

入力価格...入力に関する予測因子...

馬の引くサーカス!?

 
ヴァディム・シシュキン

入場料...入り口で予想屋...

馬の引くサーカス!?

ヴァディム、何か本質的なことを言いたいのなら、言ってみろ...。

とか、小5のセリフを吐くだけなら、黙っていた方がいいのでは...。

せめて、後で読む人への配慮として...。

 
mytarmailS:

ヴァディム、何か本質的なことを言いたいのなら、言ってみろ...。

ただ、小5の発言なら黙ってたほうが...。

せめて、後で読む人への配慮として...。

プレディクター......何だかわかりますか?

なぜネットに値段をつけるのか?

 
ヴァディム・シシュキン

1)プレディクターとは何かご存知ですか?

2)なぜ、ネットワークに価格を投入するのか?

1) そうですね、ネットワークが学習するデータは

2)価格よりも客観的なものは何か?では、なぜダメなのか?

 
mytarmailS:

というわけで......。

DTWアルゴリズムを使ってクラスタリングしてみました。

ある価格を取り上げ、そのスライディングウィンドウ部分でRFを学習させた後、再び同じ価格と同じスライディングウィンドウ部分を取り出してDTWアルゴリズムでクラスタリングし、RFを学習させました

DTWアルゴリズムでは、学習時と新規データ認識時の誤差が2-4%減少した。

予測変数の数が多ければ、もっと誤差を小さくできると思いますが、アルゴリズムがものすごく遅いです。

一言で言えば、なぜRFトレーニングの文脈で時系列 クラスタリングが行われるのでしょうか。
 
アレクセイ・ブルナコフ
一言で言えば、なぜRFトレーニングの文脈で時系列クラスタリングが行われるのでしょうか。

短くてもいいから、写真で答えよう...。

同じ長さで同じパターンを持つ行が2つあるが、一方のパターンはもう一方のパターンと全く同じではないので、DTWアルゴリズムのポイントは、クラスタリングでは同じパターンであることを理解するが、RFでは理解しないことである

もちろん、すべて下品です。

どきどき
 
mytarmailS:

1) まあ、そうですね、ネットワークが学習するデータは

2)そして、価格よりも客観的なものは何か?だからなんだ

成功です。:)
 
ヴァディム・シシュキン
成功です。:)
しゃい
 
mytarmailS:

短くてもいいから、写真で答えよう...。

同じ長さで同じパターンを持つ行が2つあるが、一方のパターンはもう一方のパターンと全く同じインデックスではないので、DTWアルゴリズムのポイントは、クラスタリングではこれが同じパターンであると理解するが、RFでは

DTWアルゴリズムは万能ではなく、2つの時系列を絶対値で比較するだけです。つまり、縦軸に沿ったシフトとスケールの事前正規化が必要で、多くのことが特定の実装に依存します。例えば、ここではhttps://www.mql5.com/ru/code/10755、固定長の2つのチャンクを比較対象とし、一方が長く、他方が短く、計算量が大幅に削減できることなどは考慮しない。DTW特有のパラメータでクラスタリングを語ることができる。2つのフラグメントの「類似度」だけでなく、水平スケールの比率も計算できる。
理由: