トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3145

 
Aleksey Nikolayev 点 探索アルゴリズムが似ていることが挙げられる。どちらの場合も、通常、1つのサンプルを2つの最大に異なるサブサンプルに分割することが求められる。

追加空白、時間は事実上ヌル特徴である

 
Maxim Dmitrievsky #:
因果の森について調べてみるのもいい。ところで、私はそれを研究したことがないのですが、もし誰かがそれを解明するのであれば、それを使った実験について読むと面白いと思います。
私はSanychのアプローチを理解していない :)彼はRMSエラーを見て いる。あるいはスライディングウィンドウのRMS。

私のスコは「予測能力」の偏差です。モデル自体の推定とは何の関係もない。

 
СанСаныч Фоменко #:

いいえ、私のスコは「予測能力」の偏差についてです。モデルそのものの評価とは何の関係もない。

あなただけでなく、MOSHの人なら誰でもそうでしょう :)
クロスバリデーションは一般的です。
なぜか違うことをしていると思い込んでいるだけ。

MOを通して推定すれば、同等の推定値が得られる。なぜなら、それはうまく機能し、自作の見積もりよりも悪くはないからだ。

私の結論はあなたの説明に基づいている。
 

同じような実験の過程で、私はあらゆる方法を試した。難しいことではない。相関、相互情報、knnから始まり、OLS、SVM、フォレスト、ブススティング、ニューラルネットワーク(ディープなものには手を出さなかった)。結果的にはboustingが一番良かった。OLSは2位だ。

その理由は非常に単純で、boustingを1分割して1つの木に切り分ければ、相互情報、標本または並べ替えエントロピー、そして部分的にOLSを評価することが可能だからだ。
 
СанСаныч Фоменко #:

いや、私のスコは「予測能力」の偏差についてだ。モデルそのものの評価とは何の関係もない

モデルのパラメータがステップごとに大きくジャンプしている可能性はありますか?つまり、各ステップでの「予測力」は良好であるにもかかわらず、望ましい依存関係は非常に異なって配置され、常に変化している。もしそうなら、これはオーバートレーニングの一種かもしれない。

 
Maxim Dmitrievsky #:
それはわかります、因果の森も調べてみては どうでしょう。By the way, I haven't studied it, but if someone understands it, it would be interesting to read about experiments with it

同じランダムフォレストでも、因果関係を解釈するようです。So you, as a populariser among us of forests and now of causal forests, have the cards in your hands).

しかし、私はまだ因果関係をトレードに応用することを理解していない。、フレンドリーなー。

 
Aleksey Nikolayev #:

ー同じランダムフォレストでありながらー因果関係のー解釈のーである。森と因果解釈の普及者であるあなたが、そのカードを手にしたわけだ)。

Still, I don't understand the application of causal for trading yet.ググってみても、直接的な応用例は見つからず、間接的な応用例、例えば、株価がFXに与える影響を研究するようなものしか見つからない。

未知のものを扱うときは、精神的な努力が必要なのだ :) ググってもそんなものは出てこないし、最近まで明確な一般的なマニュアルもなかった。
 
Aleksey Nikolayev #:

ステップごとにモデルのパラメータが大きくジャンプしている可能性はないだろうか?つまり、各ステップでの「予測可能性」が良好であるにもかかわらず、望ましい依存関係が非常に異なって配置され、常に変化している。もしそうなら、これは一種のオーバートレーニングかもしれない。

私の場合、ご質問にお答えすることは不可能です。モデルは各ステップで再学習されており、当然特徴セットは異なるステップで異なるかもしれません。

分類エラーは20%から10%まで様々です。25% has never happened.

 
Maxim Dmitrievsky #:

同じような実験の過程で、私はあらゆる方法を試した。難しいことではない。相関、相互情報、knnから始まり、OLS、SVM、フォレスト、ブススティング、ニューラルネットワーク(ディープなものには手を出さなかった)。結果的にはboustingが一番良かった。OLSは2位だ。

その理由は非常に単純で、boustingを1分割して1つの木に切り分ければ、相互情報、標本または並べ替えエントロピー、そして部分的にOLSを評価することが可能だからだ。

上記のアルゴリズムはどれも予測力を与えないし、アルゴリズムがどれだけ頻繁に 特徴を使用するかを示す重要度を愚直に計算する何百ものMOアルゴリズムも予測力を与えない:MOアルゴリズムにゴミを与えると、どのMOアルゴリズムもそのゴミの重要度を計算する。

 
СанСаныч Фоменко #:

上記のアルゴリズムはどれも予測力を与えませんし、アルゴリズムによってその特徴が使われる頻度を 示す重要度を愚直に計算する何百ものMOアルゴリズムもありません:MOアルゴリズムにゴミを投入すれば、どんなMOアルゴリズムでもそのゴミの重要度を計算する。

分類/回帰の誤差が与える。このような奇妙なゲームはもうたくさんだと思います。)そして、そのようなドアがあります。
理由: