トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 365

 
エリブラリウス

相関入力の除去はすでに行ったが、他にどのように入力を改善すればよいのか悩んでいる。

ですから、ターゲットとの相関があるべきだというのは私も同感で、だからこそ、ターゲットと相関のない入力、例えばКкорр<0,5や0,3といったものを取り除きたいのです。これによって、品質に大きな影響を与えることなく、学習プロセスを加速させることができるはずです。でも、すべての入力を削除しなければならないという前提があります )))

使用した入力(技術指標からランダムに取り出したもの)については、今のところターゲットとの相関は見られず、学習誤差=0.44、つまりほぼコインと同じです。まあ......バランスは悪くなってるんですけどね。


ターゲットとの相関関係があるはずもなく、どこに書いてあるんだ?ターゲットとの相関が1であれば、未来がわかっているので、ニューラルネットワークは必要ありません
 
マキシム・ドミトリエフスキー

ターゲットとの相関関係があるはずもなく、どこに書いてあるのか、どういう意味なのか。ターゲットとの相関が1であれば、未来がわかっているので、ニューラルネットワークは必要ない


すべてのMOは、入力変数が出力変数と相関していなければならないという事実に基づいている。

そうでなければ、ALL MOモデルの意味がありません。

データマイニングでは、すべての変数選択モデルにおいて、入力変数と出力変数の相関が最大になるような仕組みを実装しています。

Forward Selectionの手順。
後方消去法。
ステップワイズ法
ベスト・サブセット・プロシージャ。
 
ディミトリ


すべての MOE は、入力変数が出力変数と相関していなければならないという事実に基づいている。

そうでなければ、ALL MOモデルの意味がありません。

データマイニングにおいて、ALL VARIABLE SELECTION MODELSは、入力変数と出力変数の相関を最大化する仕組みを実装しています。

Forward Selectionの手順。
後方消去法。
ステップワイズ法
ベスト・サブセット・プロシージャ。

入力と出力のベクトル(曲線)が相関を持つべきという意味での相関なのか、それとも一般的な意味での出力変数の入力依存性という意味での相関なのか?
 
マキシム・ドミトリエフスキー

入力と出力のベクトル(曲線)が相関するはずだという意味での相関なのか、それとも単に出力変数の入力変数への依存性という一般的な意味での相関なのか?


依存関係は、相関関係の特殊なケースです。2つの変数が依存関係にある場合、間違いなく相関がある。相関性があれば、必ずしも依存性があるわけではありません。

統計モデルで依存性を検出する方法はない。入力変数のセットと出力変数の間に識別された相関関係が関係であるという希望があるだけである。

したがって、変数には相関がなければならない。

 
ディミトリ


依存関係は、相関関係の特殊なケースです。2つの変数が依存関係にあるのなら、間違いなく相関がある。相関性があれば、必ずしも依存性があるわけではありません。

統計モデルで依存性を検出する方法はない。入力変数のセットと出力変数の間に識別された相関関係が関係であるという希望があるだけである。

したがって、変数には相関があるはずです。


また、inverse corrがある場合、それはもはや依存関係ではないのでしょうか、それとも何でしょうか?)そして、このやり方ではNSがガチギレしてしまいます。

ハレルヤ...入力でジグザグ、出力でオフセット付きジグザグ...相関はほぼ完璧だが、何か意味があるのだろうか?)

 
マキシム・ドミトリエフスキー

逆相関の場合、もはや相関関係ではないのでしょうか?) そして、NSはこのアプローチで泥沼にはまる。


無相関とは、相関係数が0である場合をいう。

受信と発信に全く相関がないのに、どうやってモデルを作るんだ?

 
ディミトリ


無相関とは、相関係数が0である場合をいう。

受信と送信に全く相関がないのに、どうやってモデルを作るんだ?


そう、モデルが予測変数の集合からパターンを探すときには、入力と出力の相関はまったく問題にならないからだ......。相関のある入力を削除しておきながら、出力に相関のある入力を探すのは矛盾している...。))つまり、少なくとも出力と相関のある入力が1つあれば、他の入力も出力と相関があり、結果として他の入力とも相関があるため、他の入力を削除しなければならない...クールでしょう?
 
マキシム・ドミトリエフスキー

それは、モデルが予測変数の集合からパターンを探すとき、入力と出力の相関はまったく重要ではないからだ......」。相関のある入力を取り除きながら、出力に相関のある入力を探すというのは矛盾していますね。))つまり、少なくとも出力と相関のある入力が1つあれば、他の入力も出力と相関があり、結果として他の入力とも相関があるため、他の入力を削除しなければならない...クールでしょう?


いや、かっこよくない。

最初の変数が例えば0.7、2番目の変数が0.65の係数で発信変数と相関があったとしても、それは2つの変数が互いに高い相関を持っていることを意味しないのです。

ここで、1つ目の相関が0.7、2つ目の相関が-0.69であったとする。

 
ドミトリー


いいえ、かっこ悪いです。

最初の変数が例えば0.7、2番目の変数が0.65の係数で発信変数と相関があったとしても、その2つの変数が互いに高い相関を持っているということには全くならない。

ここで、1つ目の係数が0.7、2つ目の係数が-0.69であることを想像してみてください。


そして、その相関関係が「類似性」を非常に特異な形で定義していることも想像してみると......。あまり信用できませんね。

正確なハイテク・ニューラルネットワークを構築しているのに、予測因子を選ぶ ときに相関関係で誘導している? それはちょっと間違っているというか...、全部「私見」なんですけど......。)

 
マキシム・ドミトリエフスキー

さらに、相関関係が「類似性」を非常に独特な方法で定義していることを想像すると......。私ならあまり信用しませんね。


次に2つ目の選択肢、それはNSにすべてをかけることです。しかし、2つのBUTがあります。

1.相関のない変数がモデルの質を落とさないことを期待する(回帰にはそういうものがある)。

2.次元と時間を犠牲にする。

理由: