トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3142

 
Maxim Dmitrievsky #:

O.C.D.のグラフを2、3枚お願いできますか?

新任の先生には無理です。

予測値の粗密の問題を解決しようとしています。予測変数の値がモデルが学習された値とわずかに異なると、分類エラーが発生することがあるようです。同じ教師ですべての予測値を名義形式に変換しようとしたことがありますが,結果は得られませんでした.しかし,名義変数の値の数は1でした.もしかしたら、数百個必要なのでしょうか?私は作業中ですが、他の多くの興味深い疑問が邪魔をしています。

 
Forester #:

特に数秒の検索では長い。

そう、長い。本当に急いでいるわけではないが、それでも長い。

問題は、予測因子の予測力はチップの一つに過ぎないということだ。そして私の前処理には多くのものがあり、それぞれがそれを正当化するための統計セットを必要とする。

上にもう一つ問題を挙げたが、これについては長い間解決策が見つからない。

 
СанСаныч Фоменко #:

新任教師にとっては、そうではない。

私は予測値の粗密の問題を解決しようとしています。ー予測値がー予測値がー予測変数のー値がー予測値がー予測値がー予測値がー値がー予測値がー値がー予測値がー値がーモデルをー学習モデルー学習モデルー学習モデルー学習モデルー度同じ教師でーでーでーでーでーにーでーにーでーーでーーでーーでーにーーでーーにーーをーーーをーーーーエーエーーーーーーーーーーーーしかし,名義変数の値の数は1でした.もしかしたら、数百個必要なのでしょうか?私は作業中ですが、他の多くの興味深い疑問が邪魔をしています。

"

理想的なモデルは、バイアスと分散が小さいはずです。However, in reality, there is a so-called "trade-off" between bias and variance.Increasing the complexity of the model (e.g., adding more parameters) can reduce the bias but increase the variance.逆に、モデルを単純化すると、分散は減少しますがバイアスは増加します。


"

仮に、クランクシャフトを満足のいくレベルまで曲げ、クリアランスをシャープにすることはできますが、それはもはや「設計によるもの」ではないため、そう簡単にはいきません。
 
Maxim Dmitrievsky #:

"

理想的なモデルは、バイアスと分散が低いはずです。しかし現実には、バイアスと分散の間にはいわゆる「トレードオフ」があります。モデルの複雑さを増す(例えば、パラメータを増やす)と、バイアスは減りますが、分散は増えます。逆に、モデルを単純化すると、分散は減少しますがバイアスは増加します。


"

仮に、クランクシャフトを満足のいくレベルまで曲げ、クリアランスをシャープにすることはできますが、それはもはや「設計によるもの」ではないので、そうもいきません。

なぜか忘れられがちなのが、3つ目の要素である「回復不可能な誤差」だ。もしそれが十分に大きければ(SBと価格が近いため、私たちにはそれがたくさんあるように思える)、最初の2つよりも重要かもしれない。

いずれにせよ、これらは非常に重要なことであり、一つの質問にまとめることができる。

 
Aleksey Nikolayev #:

どういうわけか、人々は3つ目の要素である「回復不可能な誤差」を忘れがちである。もしこの誤差が十分に大きければ(わが国では価格がSBに近いこともあり、この誤差は小さくないと思われる)、最初の2つよりも重要かもしれない。

いずれにせよ、これらは非常に重要なことであり、1つの質問にまとめることができる。

つまり、すべてのケースを予測しようとするのではなく、モによって予測されるケースを抜き出すべきなのです。

これは「異種混合効果」と呼ばれるもので、クランクシャフトを曲げることに例えるのではなく、動く部品を見つけて動かない部品を捨てることに例えることができる。

その場合、Xの属性は文脈的なものとなり、古典的な意味でのYの「予測因子」ではなくなる。だからコズールでは「共変量体」と呼ぶのである。

その結果は、最大情報量について(何を測定するかにもよるが)あなたの質問に答えてくれるだろう。通常、それはATEまたはCATEで測定される。


 
Aleksey Nikolayev #:

ひとつ質問ですが、入手可能な価格のサンプル(およびその他の入手可能なデータ)から抽出できる情報の最大量はどのくらいでしょうか?

タスクを適切に設定する必要があると思います。

情報の定義

最大情報量」を定義する(少なくとも、いつ止めるべきかを理解するため)。

各ターゲットには異なるセットがあることを認識し、ターゲットを宣言する必要がある。


でも面白い質問だね。
 
Aleksey Nikolayev #:

どういうわけか、人々は3つ目の要素である「回復不可能な誤差」を忘れがちである。もしこの誤差が十分に大きければ(わが国では価格がSBに近いため、この誤差は取るに足らないものではないと思われる)、最初の2つよりも重要かもしれない。

いずれにせよ、これらは非常に重要なことであり、1つの質問にまとめることができる。

これは論文研究の問題であって、生地を刈り取るロボットを作る問題ではない。

必要なのは最大限の情報ではなく、十分な最小限の情報なのだ。従って、次のようなものに限定することができる:

1.1.分類の段階で20%未満の分類誤差を与えるモデルを作る。そして、"モデル "には、予測変数の完全な前処理とモデル評価のためのツールが含まれることを理解すべきである。

2.モデルを、少なくとも負け/利益トレードの比率が同じである Expert Advisor に挿入する。プロフィットファクターが4以上であれば、あと一歩です。

3.OOSで何も変わっていないことを確認し、OOSが安定している理由を 理解する。

どのようなエラーが20%になったのだろうか?

 

エラーを分類する方が簡単ではないか?

より多くのエラーを見つければ見つけるほど、より良いモデルを維持することができる。

 
mytarmailS #:
スノーロはタスクを適切に設定する必要があると思う。

情報の定義

最大情報」を定義する(少なくとも、いつ止めるべきかを理解するため)。

各ターゲットは異なるセットを持つことを認識し、ターゲットを宣言する必要がある。


でも、面白い質問だね。

私の意見では、上記の マキシムの選択肢は非常に良い。サン・サンチが正しく指摘したように、重要なのは情報そのものではなく、それがどのように預金の倍増を助けるかである)。

単純化するために、取引戦略をトリテント、Yを利益と考えれば、その定義(TSは利益期待値を最大化する)は極めて平凡なものになる。

 
СанСаныч Фоменко #:

それは学位研究の問題であって、生地を刈り取るロボットを作ることではない。

必要なのは最大限の情報ではなく、十分な最小限の情報だ。だから、私たちは次のように制限することができる:

1.分類段階で20%未満の分類エラーを与えるモデルを作成する。そして、"モデル "は、予測変数の完全な前処理、およびモデル評価のためのツールを含むことを理解すべきである。

2.モデルを、少なくとも負け/利益トレードの比率が同じである Expert Advisor に挿入する。プロフィットファクターが4以上の場合、もう1つのステップが残っています。

3.OOSで何も変わっていないことを確認し、OOSが安定している理由を 理解する。

どのようなエラーが20%になったのだろうか?

一方が他方を妨害することは一切ない。Obviously, the maximum is not only unattainable, but even impossible to calculate, but we can try to estimate it somehow and compare it at least roughly with the spread, for example.私は、マキシムが提案したような最大値の変形を意味している。