トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3210

 
mytarmailS #:

現役の市場調査員たちは、このRに座っている。

まずリサーチチームが成長しなければならない。
 

上記の問題は、トレーニングファイルとOOSファイルで優れた結果を持つモデルがあるということです。トレーニング・ファイルはサンプルごとのランダム・サンプリングでも得られるし、OOSはトレーニング・ファイルの残滓であることは理解している。

しかし、外部ファイルでモデルを実行すると、結果は壊滅的に悪い。

そういえば、何年か前にもそんなことがあった。

私はその原因を突き止めた。その理由は「先読み」であった。先読みとは何かを理解するのは非常に難しいので、非常に不都合な理由であった。

そこで私は、ZZの増分を教師として、ZZが計算に関与する予測因子がたくさんあるモデルを作った。例えば、価格とZZの差だ。トレーニングの際には、ZZの正しいリンクが含まれていないファイルの一部を切り取るだけでした。そして予測値を計算する際には、欠落しているZZ値を最後のリンクで拡張した。

ランダムなサンプルを与える3つのファイル(これはラトルでのもの)は、約5%の分類誤差を与えた。しかし,最初の3つのファイルとは無関係な4番目のファイルは,ランダム・エラーを与えた.

しかし、ZZが計算に関与している予測因子をすべて取り除くと、すべてがうまくいく。

これは先を見通して いる。

再トレーニングでは、テスターで最適化を使用することに細心の注意を払い、Rで予測変数のリストをゴミからきれいにすることは明らかです。しかし、どの ようにして先読みを検出 するのだろうか?

過去の経験から、次のことは明らかです:訓練、テスト、検証での分類誤差が10%未満であれば、誤差が20% 30% ... に増加するまで予測子を1つずつ捨てるべきです。

 
ジグザグは将来ではなく、バーの瞬間のために作られるべきだ。
 
Forester #:
ジグザグは、未来ではなく、バーの瞬間にプロットされるべきである。

モデルが探しているパターンは1本の線であり、隣接する線は考慮されないし、トレーニング用のサンプルは1500本である。

 
このジグザグのくだりはどこから来たのだろう、誰が最初に思いついたのだろう?

サニチ、いつになったら先生とはターゲット+フィチのことだと思い出すんだ?

そしてvolatilityはHなしで綴られる。
 
СанСаныч Фоменко #:

過去の経験から、次のことが当てはまる:訓練、テスト、検証の分類誤差が10%未満であれば、誤差が20%30%に増加するまで、愚かにも予測子を1つずつ捨てていく・・・。

ー天才))))

誤差が10%未満の予測子を見つけるには?

存在しないとは言わせない、信じるしかない。

 
Maxim Dmitrievsky #:
このジグザグのくだりはどこから来たのか、誰が最初に発明したのか?

あなた自身は、お気に入りの自分を誇示するのではなく、問題の本質について書くことに興味があるのか、あるいはまったくないのか?

 
СанСаныч Фоменко #:

その理由を見つけることができた。その理由とは「先を見ること」である。極めて不都合な理由だが、「先を見ること」を理解するのは極めて難しいからだ。

そこで私は、教師がZZの増分であり、ZZが関与する計算には多くの予測因子があるモデルを使った。例えば、価格とZZの差です。トレーニングの際には、ZZの正しいリンクが含まれていないファイルの一部を切り取るだけでした。そして予測子を計算するとき、ZZの欠損値は最後のリンクによって拡張された。

ピーキングを避けるには、フォレスターが正しく言っているように、各反復のループの中で、ピーキングをせずに予測値を計算すればいい...。

これが解決策だ。

 
mytarmailS #:

天才))))

では、誤差10%以下の本当の予測因子を見つけるにはどうすればよいのでしょうか?

ないとは言わせない、信仰の問題なのだから......。

簡単なことだ。

ZZの例でどうやったかは上に書いた。

でも、ZZがどうのこうのという問題ではない。私たちは、先生のチャントを予測に入れて、外のファイルで走る前に幸福を得るのだ。

そして、マキシムがとても美しい写真を撮るように、外のファイルを走って幸せに生きることはできない。

しかし、先に見ての問題に戻る。鈍いオーバーシュートを示唆した。または多分何か他のものがありますか?

 
СанСаныч Фоменко #:

あなた自身は、好きな自分をアピールするのではなく、問題の是非を書くことに興味があるのか、まったくないのか。

他人の心の問題を解いてもまったく面白くない
理由: