トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3117

 
Maxim Dmitrievsky #:

これはすべて、前史においてここで何度も議論されてきたことだ。売買で訓練された最初のモデルは、新しいデータでテストされる。間違っているケースは「売買しない」、それ以外は「売買する」に分類される。2つ目の分類器がそれに対してトレーニングされる。2つのモデルが得られる。そのうちの1つは方向性を予測し、もう1つはトレードをやめるべきかどうかを予測する。これにより、1つのモデルでトレードの閾値を設定するだけで、柔軟性が生まれます。なぜなら、2つのモデルは、一方を通してもう一方を改良することができるからだ。前回の記事では、オリジナルの方法を説明した。その後、修正したロジックに切り替えた。

ちなみに、これは未解決の問題である。というのも、明らかに異なる方法でお互いを改善することが可能だからだ。

そこで私は、同じような方法で推論を行うコズル推論に出会った。

私は知らない。

そして、このような2番目のモデルによるフィルタリングの使い道はあるのだろうか?

 
mytarmailS #:

分からないよ。

そして、この2番目のモデルによるフィルタリングが何の役に立つのか?

新しいデータの方がいい。

 
Maxim Dmitrievsky #:

新しいデータでは、その方がいい

のような確率のしきい値を設定したほうがよい。

> 0.7 買う

< 0.3 売り

のような確率のしきい値を設定すれば、テストとトレーンの両方で良くなり、トレードの回数も自然と少なくなります。

2つ目のモデルは本当に何かを与えるのでしょうか?

テストや比較はされたのでしょうか?

 
Maxim Dmitrievsky 方向性を 予測する基本モデルと、勝つ確率(トレードするかしないか)を予測するメタモデルから構成される1つの理論的TSで、仮想的な状況を提示してみよう:

最初のモデルをメイン・モデルと呼び、特徴空間を黒い線で買い/売りに分けます。そして2つ目は、全特徴 空間をトレードする/しないに分けるメタモデルです(赤線)。

次に、2つのメタ・モデルがあり、それぞれがBUYクラスとSELLクラスの異なる 特徴空間をトレード/非トレードに別々に分割する場合を考えてみましょう(2本の赤線)。

考えるべき」純粋に理論的な疑問は、2番目のオプションの方が良いかどうかということです。そして、もしその方が良いのであれば、それはなぜか。コメントをお願いします。

おそらくアレクセイ・ニコラエフにもお願いしたいのだが、このような「介入」の効果をどのように判断できるのだろうか。結局のところ、私たちは2つのメタモデルの2つの確率分布を得ることになり、それらはコーナーによって比較/評価/分布することができる。

これは問題のあいまいな表現である。

私たちは2つ目の確率モデルを1つ目のモデルよりも信じ、2つ目のモデルを1つ目のモデルのフィルターとして使う。

あるいは、この状況を「AND」操作、つまり結果の交差として扱う。


これは行き止まりだ。


方向性を与えるようなモデルには出会ったことがない。もし方向性を与えるのであれば、それは方向性の確率の正則化の結果だからだ。そのため、Rの標準的なアプローチとして「モデルのアンサンブル」と呼ばれるものが提案されているのですが、これは2つ以上のモデル、いわば第1レベルのモデルの結果を、第2レベルの分類アルゴリズムの予測子として使用する場合です。ところで、もしあなたがカテゴリ変数が好きなら、分類器の入力にそれらを与えることもできます。信頼度によってモデルの結果をランク付けすることが可能であれば,重みによって調整することができる.つまり、2番目のレベルは、1番目のレベルのモデルの分類結果を予測子として使用する分類器です。このアプローチは,0.5以外の正則化によって得られるアンバランスなクラスに対してとても興味深いもので,たとえば,我々は,確率としての分類器の結果を,0.4と0.6の値を持つ分位数によって分割します.真ん中は、市場からは外れています。

 
mytarmailS #:

というような確率のしきい値を置く。

> 0.7 買う

< 0.3 売り

であれば、テストでもトレーンでも良くなり、自然とトレードも少なくなる......。

2番目のモデルは本当に何かを与えているのだろうか?

テストや比較はしたのでしょうか?

クロス・バリデーションによって1つ目のモデルをトレーニングし、2つ目のモデルにはトレードしないように間違った予測をすべて入れたとします。最初のモデルは、ある場所ではより頻繁に間違っていて、ある場所では常にうまく取引しているという統計的な有意性がすでにあります。これを2つ目のモデルでフィルタリングすることができる。1つのモデルを通すことは、すでに難しくなっている。このようなチューニングの他のバリエーションがあります。
 
Maxim Dmitrievsky #:
クロス・バリデーションによって1つ目のモデルをトレーニングし、間違った予測はすべてノートレードとして2つ目のモデルに入れたとします。1つ目のモデルが特定の場所で間違っている可能性が高いという統計的有意性がすでにあり、それを2つ目のモデルでフィルタリングすることができます。1つのモデルを通すことは、すでに難しくなっているのだ。この種のチューニングは他にもあります。

なるほど、理にかなっている。

 
mytarmailS #:

まあ、それは合理的に聞こえるね。

2つ目のモデルも間違っていたとしても、この場合は1つ目のモデルの誤りを修正することができる。コズルの推論では、彼らのアプローチをより厳密に正当化している。完璧に厳密に証明されていると言ってもいい。

https://en.wikipedia.org/wiki/Frisch%E2%80%93Waugh%E2%80%93Lovell_theorem

 
Forester #:
私は試していない。直感的に)しかし、マルクスが言ったように、実践こそが真理の基準なのだ。もしそれが実践でうまくいくなら、それはいいことだ)。

私はその過程で、2番目の選択肢に切り替えようとしている。

 
СанСаныч Фоменко #:

曖昧な問題提起。

私たちは2つ目の確率的モデルを1つ目のモデルよりも信じており、2つ目のモデルは1つ目のモデルのフィルターとして使われている。

あるいは、この状況を「AND」操作、つまり結果の交差として解釈する。


行き止まりだ。


方向性を与えるようなモデルには出会ったことがない。外部的にも方向性を与えるとすれば、それは方向性の確率の正則化の結果だからだ。そのため、Rの標準的なアプローチである「モデルのアンサンブル」が提案されているのです。これは、2つ以上のモデル、いわば第1レベルのモデルの結果を、第2レベルの分類アルゴリズムの予測子として使用する場合です。ところで、もしカテゴリー変数がとても好きなら、分類器の入力に入れることもできます。信頼度によってモデルの結果をランク付けすることが可能であれば,重みによって調整することができる.つまり、2番目のレベルは、1番目のレベルのモデルの分類結果を予測因子として使用する分類器です。このアプローチは,0.5以外の正則化によって得られるアンバランスなクラスに対してとても興味深いものです.たとえば,我々は,確率としての分類器の結果を,0.4と0.6の値を持つ分位数によって分割します.真ん中は、市場からは外れています。

アンサンブルは、意味は近いが実装は遠い。提案されたアプローチは、異なる結果を得るために異なる方法で使用することができるので、非常に柔軟です。

私もアンサンブルを行ったが、うまくいかなかった。

 
Maxim Dmitrievsky #:
クロス・バリデーションによって1つ目のモデルをトレーニングし、 間違った予測はすべてノートレードとして2つ目の モデルに入れたとします。1つ目のモデルが特定の場所で間違っている可能性が高いという統計的有意性がすでにあり、それを2つ目のモデルでフィルタリングすることができます。1つのモデルを通すことは、すでに難しくなっているのです。このようなチューニングには、まだ他のバリエーションがあります。

エラーフィルタリングという考え方は、私にはまったく理解できない。

モデルが50/50を予測した場合、悪い50を捨てれば残りは100%を予測できるということですか?それは単なる超学習であり、それ以外の何ものでもない。


分類エラーは、ある場合には予測変数の同じ値が正しく予測され、ある場合には正しく予測されないという事実から生じる。これは、予測変数と対象変数の間の「関係の強さ」をフィルタリングする段階でのみ排除できる問題であり、予測変数をフィルタリングし、この費用で分類エラーを10%減らすことは、神の思し召しにより、完全に不可能である。

理由: