トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3211

 
mytarmailS #:

ピーキングを避けるために、ループの各反復でピーキングせずに予測値を計算すべきだというフォレスターの言葉は正しい。

これが解決策だ。

ZZの例では、それは明らかだった。

しかし、ZZなしで10%以下の分類誤差を得ることはよくある。それはゴミだとわかった。捨てました。

 
СанСаныч Фоменко #:

そして、マキシムが非常に美しい写真で行うように、あなたはファイルINE上で実行し、幸せに生きることはできません。

あなたは夢の中で多くのことを夢見るだろう
 
Maxim Dmitrievsky #:
他人の心の問題を解決することに興味はない。

あなたは市場でも、きれいな絵を担当する。それが君の一番の問題なんだね。

 
СанСаныч Фоменко #:

You're in charge of pretty pictures, even in the marketplace.それが君の一番の問題なんだね。

フフフフフフフフフヘヘヘヘヘヘヘヘヘヘヘヘヘヘフレンドリーなフレンドリー。
 

特徴の選択は、多くの場合、研究の対象とは無関係な、異質な情報の山から行われるという単純な算術がある。

導き出されたBPはすべてこのBPに関連しており、より良いか悪いかを選ぶしかない。

私は覗き見について話しているのではなく、これらは幼稚な問題なのだ。明らかに、このようなごまかしは長年にわたって何ももたらさない。しかし、彼らはそれをしつこく繰り返す。

そして、取引を適切にマークアップできないために、サンプル内でもエラーが発生する。
新しいデータでは、トレンドによる偏りや、予測不可能な変動に対する再トレーニング、混乱など、さまざまなバリエーションがあるかもしれない。cv法によるモデル誤差修正で治る。

あなたの記事のどこに、シンプルで効果的なエラー修正方法についての言及がありますか?

推測するに、Pのルーブリックにはそのような神聖な知識への矢印がなく、私たちはググって考えることに慣れていないのでしょう。)
 
Maxim Dmitrievsky #:

特徴の選択は、多くの場合、研究の対象とは無関係な、異質な情報の山から行われるという単純な算術がある。

導き出されたBPはすべてこのBPに関連しており、より良いか悪いかを選ぶしかない。

私は覗き見について話しているのではなく、これらは幼稚な問題なのだ。明らかに、このようなごまかしは長年にわたって何ももたらさない。しかし、彼らはそれをしつこく繰り返す。

そして、取引を適切にマークアップすることができないため、サンプル内でもエラーが発生する。
新しいデータでは、トレンドによるバイアスや、予測不可能な変動に対する再トレーニング、混乱など、さまざまなバリエーションがあるかもしれない。

あなたの記事のどこに、シンプルで効果的なエラー修正方法についての言及がありますか?

CVの誤差は、誤差を最小化して最適なパラメータを探索するものであるため、その意味によって治るものではありません。もしある教師とその予測変数が誤った相関を持っていれば、CVは必然的にこの屑の中からより良いものを見つけるでしょうが、屑の問題を解決することはできません。

ゴミ問題は,"予測能力",すなわち,1つのクラスか他のクラスのどちらかを予測する予測変数の能力によって解決される.そして、分類誤差は、同じ予測値がある瞬間にはあるクラスを予測し、別の瞬間には別のクラスを予測するという事実によって決定されることは明らかである。 ラトルにはこのトピックに関する写真もある。

 
СанСаныч Фоменко #:

CVは、誤差を最小化して最適なパラメータを探索するものであるため、その意味において誤差を治すものではない。もし教師とその予測変数が誤って相関していれば,CVは確かにこのゴミの中からより良いものを見つけるだろうが,ゴミの問題を解決することはできない.

ゴミ問題は,"予測能力",すなわち,1つのクラスか他のクラスのどちらかを予測する予測変数の能力によって解決される.そして、分類誤差は、同じ予測値がある瞬間にはあるクラスを予測し、別の瞬間には別のクラスを予測するという事実によって決定されることは明らかである。 ラトルにはこのトピックに関する写真もある。

だから?相関関係を探すのではなく、ランダム化とcvによる因果関係を探しなさい。それとも、私が教えてあげないといけないの?

エラー訂正をしなければ、固定標本に関するほとんどすべてのモデルに欠陥がある。グラフのマークアップの仕方を知らないからだ。もし知っていたとしても、あなたは知らない。あなたがどう考えても、無作為に小さい部分が常に正しく表示されることになる。
 
СанСаныч Фоменко #:

上記の問題は、トレーニングファイルとOOSファイルで優れた結果を持つモデルがあるということです。トレーニング・ファイルはサンプルごとのランダム・サンプリングでも得られ、OOSはトレーニング・ファイルの残差であると理解しています。

しかし、外部ファイルでモデルを実行すると、結果は壊滅的に悪いのです。

最近、何度かOOSについて触れたと思います。しかし、そこでの良いOOSは、あなたの用語では「別ファイル」でした。

SanSanych Fomenko#:

そして、どのように前方を見て検出 するのですか?

マルチパス学習(次のステージが前のステージの計算を使用する)の場合、「先読み」の確率は高くなります。一般的なレシピはありませんが、私はあるケースで次のようにしました。


計算を高速化するためには、不要な刻みを取り除く必要があった。例えば、刻みの数を10倍に減らせば、同じだけ計算が速くなる。これは非常に要求の高いアクションだ。

私の場合、どの目盛りが必要で、どの目盛りはほとんど必要ないかがわかっていた。とにかく、私はカスタム・シンボルを作り、カスタム・シンボルとオリジナル・シンボルでバックテストを開始した。

ここで重要だったのは、オタク度を上げて99%以上の一致を達成することだった。その結果、当初はあまりに大量に投げすぎていたことが判明し、異なる結果が出た(もちろん、オリジナルのものよりは良い)。


最終的に、私はオリジナルよりも少ない量を捨てるようになり、すべてが一致するようになった。つまり、私はトレーニングの際に2パス法を使っているのだ。


だから、おそらく、前のパスの後のピーキングを検出するには、本格的な計算の前でも、上記のチェックを使うことができる。まあ、それ以外にも、"too good to be true "というお爺さんの覗き見検出法もある。初心者はクールな結果に歓喜するが、熟年者は自分のエラーを長い間探さなければならないことに気づいて憤慨する。

 
fxsaber #:

新人たちは冷静な結果に満足し、成熟した者たちは動揺する。

そしてプロは、哀れみと見下しの目で彼ら2人を見つめ、静かにこう言うのだ。「いつになったら、景色ではなくコンセプトを変えようと思うんだ?

 
mytarmailS #:

そしてプロフェッショナル...

会ったことはない。

理由: