トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2594

 
mytarmailS#:
再び神の批判を受ける
額と同じくらいに。
論理的でなければならない。
 
マキシム・ドミトリエフスキー#:
額に負けないくらい、頭に入るんです。
あなたの論理で
自分の主張を声に出すのであって、こんなゴミはダメだー、うまくいかないからー。
 
mytarmailS#:
あなたはポイントを作る、このたわごとではない - それは動作しませんので、動作します。
なるほど、ファンタジーさえも全くないのですね。OPはモデルのバリエーション空間全体をカバーしているわけではないので、彼女が最適化したものを自分で選んで、最適なバリエーションを決めていくことになります。要するに工場に行けということだ。ざっくりとした理解もないまま、あるものに手を出してしまうんですね。また、ブースティングの場合、反復するごとにパラメータ数が増えていくため、OPを構築することは不可能です。もちろん正則化の話も聞いていないでしょう。まだ、自分でいくつかのピークを質的に解消できていると思っているのでしょう。
 
Maxim Dmitrievsky#:
なるほど、ファンタジーさえも全くないのですね。OPはモデルのバリエーションを全部網羅しているわけではないので、彼女が最適化したものから選んで、自分で最適なバリエーションを決めなければなりません。要するに工場に行けということだ。ざっくりとした理解もないまま、あるものに手を出してしまうんですね。また、ブースティングの場合、反復するごとにパラメータ数が増えていくため、OPを構築することは不可能です。
ああ...
アレクセイは、どうすればいいのか、すぐに理解した。
10回目からよくわからなくなる-自分の名前を考えよう)
 
mytarmailS#:
アレクセイ、どうすればいいか、すぐにわかったよ...。
10回目からよくわからなくなる・・・自分の名前を作れ)
durnehより。簡単なことですが、無意味なことです。OK、沼を輸入してください)その場で再学習しないベイズ型MOになってしまうだけです。
 
MOのトレーディングへの応用については、もっと興味深い問題がある。例えば、どの区間の履歴を学習に用いるかを決定するアルゴリズムなどです。おそらく、クロスバリデーションによって最適化されたいくつかのメタパラメータによって設定することができます。プラドを読むべき)。
 
Aleksey Nikolayev#:
MOをトレーディングに活用するには、もっと興味深い問題があります。例えば、どの区間の履歴を学習に用いるかを決定するアルゴリズムです。おそらく、クロスバリデーションによって最適化されたメタパラメータによって設定することができるのでしょう。プラドを読まないといけない)。

データは多ければ多いほどいい、と書きたかったのですが、ある小さな実験を思い出しました(ただし、十分な代表性を持たずに行ったので、結果はランダムかもしれませんが、それにしてもです)。つまり、2つの市場があり、私の主観では、1つはより効率的で、もう1つはそれほどでもないと思います。より効率的な市場で学習させたモデルは、この市場で、同じ地域で効率性の低い市場で学習させたモデルよりも悪いOOSの結果を出した。

 
トレイの大きさに関係なく、ある時点で動作しなくなるモデルがよくあります。長さの異なるサンプルでトレーニングすると、すべて過去の履歴のある時点で動作が停止します。これによって、何らかのパターンが欠落していたり、変化していたりすることがわかります。

また、その場所をカバーしているトレイを拡大すると、モデルがノイズを学習してしまい、今後全く動作しなくなる可能性があります。トレイを巨大化させるのも悪です。

こうして、モデルが機能する領域の長さを見つけて、そこを完全に学習させることで、しばらくは多少性能が上がります。
 
Maxim Dmitrievsky#:
トレイのサイズに関係なく、一瞬で動作が停止する機種がよくあります。長さの違うサンプルでトレーニングしたのですが、どれも前の履歴のある時点で動作が止まってしまうんです。これによって、何らかのパターンが欠落している、あるいは変化していることがわかります。

そうすると、できるだけ短い区間でトレーニングしなければならないことがわかります。そのため、パターンを変更した後、新しいパターンがより速く動作し始めるようになっています。

例えば、12ヶ月間トレーニングした場合、6ヶ月後のパターン変更後は、新旧のパターンが半々になります。そして、約1年後に新しいパターンでのトレーニングと取引が行われることになります。つまり、ほぼ丸一年間、時代遅れのパターンで取引され、ほとんどの場合、負けているのです。

1ヶ月トレーニングすれば、1ヶ月後にはまた正しく動作するようにパターンが学習されます。

1週間トレーニングするのが良いのでは・・・。でも、データが足りないんです。

 
Maxim Dmitrievsky#:
トレイの大きさに関わらず、ある瞬間に動作が停止する機種がよくあります。長さの異なるサンプルでトレーニングしたところ、いずれも過去の履歴のある時点で動作が停止してしまいました。これによって、何らかのパターンが欠落している、あるいは変化していることがわかります。

また、その場所をカバーしているトレイを拡大すると、モデルがノイズを学習してしまい、今後全く動作しなくなる可能性があります。トレイを巨大化させるのも悪です。

そうやって、モデルが機能する領域の長さを見つけて、そこを完全に学習させることで、しばらくは多少性能が上がります。

騒音については、そうですね。ノイズがあるときとないときの歴史の断面図は、考えたことがありません。ところで、モデルをトレーニングする前に、これをどのように理解するのでしょうか?繰り返しのような?全セクターをトレーニングして、一番性能が良いところを見て、これらのセクターを残して、最初にこれらのセクターだけをトレーニングしたのですが?そのため、実験的検証の前に哲学的とも言える2つ目の疑問が生まれます。モデルは、ノイズを含むさまざまな領域をすぐに見ることができるが、ノイズの多いデータから平均的に学習するのと、よりきれいなデータから学習するが、ノイズの多いデータは一度も見ない方が良いのか、ということです。


また、ジャイアントサイズの何がいけないのでしょうか?計算時間の増大は別として?

理由: