トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3285

 
Maxim Dmitrievsky #:
定量化を続ける 😵‍💫

ようやく適切なアドバイスが得られた!

 
Aleksey Vyazmikin #:

そして、これがその結果である。

確かに結果は改善されている。サンプル数が多ければ多いほど、トレーニング結果は良くなるという仮定が成り立つ。

訓練サンプルの1部と2部で訓練してみることが必要であり、2部と3部で訓練しても結果がそれほど悪くならないのであれば、サンプルの鮮度の要因は量よりも重要でないと考えることができる。

さて、トレーニングは終了し、結果は表の最後の2列のとおりである。


トレーニングの成否はサンプル・サイズに左右される、というのが暫定的な結論である。しかし、"-1p1-2 "サンプルの結果は"-1p2-3 "サンプルと 同等であり、いくつかの基準では"-1p2-3 "サンプルの 方が優れています。一方、"0p1-2 "サンプルの結果は、与えられた基準を満たすモデルの数という点で、2倍悪い ことに注意してください。

今、私は年代を反転させたサンプルを実行しました。trainサンプルは最初のexamination+test+train_p3サンプルで構成され、testサンプルはtrain_p2、examinationはtrain_p1 です。 目標は、10年前ならうまくいったであろうモデルを、より最近のデータでうまく構築できるかどうかを確認することである。

結果はどうなると思いますか?

 
Aleksey Vyazmikin #:

さて、トレーニングは終わり、結果は以下の表の最後の2列だ。


トレーニングの成否はサンプル・サイズに左右される、というのが暫定的な結論である。 しかし、"-1p1-2 "サンプルの結果は"-1p2-3 "サンプルに 匹敵し、いくつかの基準では"-1p2-3 " サンプルの方が優れている一方、"0p1-2 "サンプルの結果は、与えられた基準を満たすモデルの数という点で、2倍悪いという ことがわかります。

今、私は年代を反転させたサンプルを実行しました。trainサンプルは最初のexamination+test+train_p3サンプルで構成され、testサンプルはtrain_p2、examinationはtrain_p1 です。 目標は、10年前ならうまくいったであろうモデルを、より最近のデータでうまく構築できるかどうかを確認することである。

結果はどうなると思いますか?

もう少しすれば、最も些細な結果が得られるだろう......あるいは、得られないかもしれないが、MEの世界をひっくり返すような発見があるかもしれない!

さあ、出発だ!

 
СанСаныч Фоменко #:

私は「予測変数の予測力」について何度も書いてきた。これは2つのベクトル間の距離として計算される。

私は距離を計算するツールのリストを見つけた:

これは標準的なものの他に、独自の距離のセットを持っています。

いい作りだ
 
インプットのないタスクを紹介しよう:...
結果はどうなると思いますか?😀

先ほどと同じように、特徴量そのものを使わずに、特徴量の値を示します。

そして、彼はこう書くだろう:そして、誰も推測しなかった、結果はこうなる😁😁😁😁🥳。
 
Maxim Dmitrievsky #:
インプットのないタスクを紹介しよう:...
結果はどうなると思いますか?😀

先ほどと同じように、特徴量そのものを使わずに、特徴量の値を示します。

そして、彼はこう書くだろう:そして、誰も推測しなかった、結果はこうなる😁😁😁😁🥳。

マックス、なぜ私をからかうのか理解できないわ。

推測がないのなら何も言わないで、推測があるのなら「結果は最悪になる」みたいに言ってよ。

 
Aleksey Vyazmikin #:
...

結果はどうなると思う?

分からないが、知りたい。

 
СанСаныч Фоменко #:

あと少しで、些細な結果が得られる......いや、そうではなく、MEの世界をひっくり返すような発見があるかもしれない!

行くしかない!

ということは、最初の2つの列のモデル数は同程度になると?倍も違うのに。つまらないことをもっと具体的に言ってくださいよ。

 
Andrey Dik #:

マックス、なぜ僕をからかうのか理解できないよ。

仮定がなければ何も言わず、仮定があれば「結果は最悪になる」とでも言えばいい。

私はマットスタットについて上に書いた。その前はkozulについて書いた。その前にも、オラクルのエラー(マークアップエラー)について書いた。その結果、トレーニングの塊や長さが違えば、結果は変わるということがわかった。提供されていない、あるいは説明されていないデータによるのだ。
マークアップエラーは結果や期間に影響する。どのニワトリがどの前足を使ってマーキングしたかが、そのニワトリの結果になる。

ここの人たちは学習の基本的な柱について話したがる:前処理、定量化、パーディクターとターゲットの関係...。しかし、左右どちらの前足でマーキングするかについては書かない。それ以上に重要なことなのだ。
 
Maxim Dmitrievsky #:
上で私はmatstatについて書いた。その前にkozulについて書いた。さらにその前には、オラクル・エラー(マークアップ・エラー)について書いた。その結果、トレーニングのチャンクや長さが違えば、結果は変わるということがわかった。提供されていない、あるいは説明されていないデータによるのだ。
マークアップエラーは結果や期間に影響する。どのニワトリがどの前足を使ってマーキングしたかが、そのニワトリの結果になる。

ここの人たちは、トレーニング、前処理、パーディクターとターゲットの関係......といった基本的な柱の話をしたがる。しかし、左右どちらの前足でマーキングするかについては書かない。それ次第なのだ。

まあ、それはもうプロの意見にしか聞こえない(それが正しいか間違っているかは別問題だが)。
そして、バカにする必要はない。
理由: