トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 89

 
Vizard_:
スライドコントロールはファン向け))))であり、この場合のみモデルが適しているというのは誤りである。
でも、それはナンセンスなことで、みんなそれぞれのステージで自分のクセや必要性を持っているのだから、それを加えることもできるのです。
一般とテスト(テスト=OOS-新しいデータへの計算式の適用)の両方の出力%という意味です。
ウィンドウアプリケーションの利点は、その迅速な使いやすさにあります。普通のシェルを作ることは可能です。
Reshetovは経験豊富なコーダーなので、普通の方法で行う必要があります。以上です。もちろん、すべてイミフです。
ユーリのソフトを試さないのは、彼が駄作を作ったと思うからではない。経験豊富なプログラマーとはいえただ、すべてがすでに実装されていて、私が使っているパッケージにはウォークフォワードがあることまで判明しています。そして、SVMから正則化付き線形モデル、XGBOOSTまで、1サンプルあたり150~200のモデルが存在します。
 
アレクセイ・ブルナコフ


サンプル内で良いモデルを選択すると、サンプル外でも良い結果が得られる場合、そのモデルが選択された問題に適していることを意味します。

もう一度、特に才能のある人のために言いますが、モデルが選択に合格しても、それが選ばれた問題、特に非定常環境での問題に適している可能性があることを意味 しません。あくまでも、どうにかして選択項目を通過したということです。

大学入試で選抜に合格しても、卒業証書を守るとは限らないし、ましてやその後、自分の選んだ分野で働くとは限らない。

選択によって、不適合になる確率が下がるだけで、常にゼロになるわけではありません。そして、選別の結果も偽陽性、偽陰性になりうることを忘れてはならない。つまり、選別の過程で「赤ん坊を風呂の水と一緒に捨ててしまった」可能性もゼロではないのだ。

 
ユーリー・レシェトフ

もう一度、特に才能のある人へ:モデルが選択に合格しても、それが選ばれた問題、特に非定常環境での問題に適している可能性があることを意味 しません。ただ、なんとなく選別を通過してしまったということです。

大学入試で選ばれても、卒業証書を守るとは限らないし、ましてやその後、自分の選んだ専門分野で働くとは限らない。

選択によって、不適合になる確率が下がるだけで、常にゼロになるわけではありません。そして、選別の結果も偽陽性、偽陰性になりうることを忘れてはならない。つまり、選別の過程で「赤ん坊を風呂の水と一緒に捨ててしまった」可能性もゼロではないのだ。

非常に洗練された人のために、もう一度説明しましょう。

もちろん、すべての結果は確率的なものです

トレーニングでのモデルの結果があり、クロスバリデーションやテストでの結果がある(モデルのパラメータをピックアップ し、早期に学習を停止させるため)。また、アウトオブサンプルのモデル結果-最終推計-もあります。

テスト時の結果がサンプル外の結果とよく相関している場合、依存性モデリングの品質がサンプル外の期間に慣性を持つことを意味します。この場合、テスト内(「サンプル外」ではない)の最適なモデルを採用することができる。その後、パラメータがわかっているすべての新しいデータでモデルを再トレーニングし、将来の結果との関係が事実上確立されているため、最適なモデルを選ぶことができるのである。

もし、テストの結果とサンプル外の結果の相関が低ければ、トレーニングで最適なモデルを選択しても意味がない。サンプル外」で最適なモデルを取るのがフィット感モデル構築の方法を否定するか、パラメータの範囲を大幅に変更するか、どちらかしか道はない。

 
そして私は、例えばディープラーニングを使ってレシェトフ・オプティマイザーの汎化能力を高め、述語の質を評価する新しい可能性を持って、これは美点だと思います。50%だった汎化率をディープラーニングでは80~90%まで上げることができ、この場合、モデルはハラハラと動き出す......。だから、ここから先は、みんなに任せよう。そして、喧嘩をする必要はない(C)レオポルドとその他もろもろ......。
 
.

"たとえば、1週間、スレッドを作って、自分を表現してもらうように提案することもできます。" "そして、それをこき使うようにするのです。"

どのようなギミックで上記の引用文が挿入されたのか知りませんが、私の投稿ではありません。

もしモデレーターが私の投稿に何か気に入らないことがあれば、それは彼らの権利です。ただ、他人の文章を私の投稿に貼り付けたりせず、もっと文化的な行動、つまり具体的に何が気に入らなかったのか、自分の名前で述べればいいのです。そして私は、モデレーターを刺激しないように、このサイトから自分のサイトに移動します:リンクは私のプロフィールにあります。

さようなら、みんな

 
ユーリー・レシェトフ
.

"たとえば、1週間、スレッドを作って、自分を表現してもらうように提案することもできます。" "そして、それをこき使うようにするのです。"

どんなホブゴブリンが上の引用文を私の投稿に挿入したのか知りませんが、私の投稿ではありません。

もしモデレーターが私の投稿に何か気に入らないことがあれば、それは彼らの権利です。ただ、他人の文章を私の投稿に貼り付けたりせず、もっと文化的な行動、つまり具体的に何が気に入らなかったのか、自分の名前で述べればいいのです。そして私は、モデレーターを刺激しないように、このサイトから自分のサイトに移動します:リンクは私のプロフィールにあります。

皆さん、さようなら

うわあああああああああああああああああああああああああああああああああああああああああああああああああああと書いたのはあなただと思ったのですが.賢いやり方だ...然う然う
 
ユーリー・レシェトフ
.

"たとえば、1週間、スレッドを作って、自分を表現してもらうように提案することもできます。" "そして、それをこき使うようにするのです。"

どんなホブゴブリンが上の引用文を私の投稿に挿入したのか知りませんが、私の投稿ではありません。

もしモデレーターが私の投稿に何か気に入らないことがあれば、それは彼らの権利です。ただ、他人の文章を私の投稿に貼り付けたりせず、もっと文化的な行動、つまり具体的に何が気に入らなかったのか、自分の名前で述べればいいのです。そして私は、モデレーターを刺激しないように、このサイトから自分のサイトに移動します:リンクは私のプロフィールにあります。

皆さん、さようなら

また、お気軽にお越しください。
 
ヴィザード_。

後で興味本位で見てみようかな、屑をやってしまったようですが))))
そうですね、+Rは、おそらく可能なものはすべてすでに実装されているのでしょう。長い間、私は使用しませんが、再トレーニングなしでちょうどモデル。MLで最後にやったことの1つは、ちょうど
イベントをモデルに詰め込んで、常にターゲットにヒットするようにします。それらを組み合わせると、通常93〜96%になる。あとは、トレーニング。つまりは
少し歩けるようになったお子さんには、毎日同じことを言わなくても、水たまりを飛び越えるタイミングを教えてあげればいいんです。
(ターゲットに予測なし).少し滴下、ターゲットは確かにキャンドルの色ではありません)))。
どうすればいいのか、全くわからない。
 
ヴィザード_。

ちょっと垂れ気味に、ターゲットはもちろんキャンドルの色ではありません)))
ただ、言うまでもないことですが )
 
Nested cross validation for model selection
Nested cross validation for model selection
  • stats.stackexchange.com
How can one use nested cross validation for model selection? From what I read online, nested CV works as follows: There is the inner CV loop, where we may conduct a grid search (e.g. running K-fold for every available model, e.g. combination of hyperparameters/features) There is the outer CV loop, where we measure the performance of the model...
理由: