トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1376

 
アレクセイ・ヴャジミキン

なぜ全体の10%以下のサンプルで研究するのか、もっとサンプリングして改善につなげるべきじゃないのか。

また、なぜ5k以上なのでしょうか?その上でトレーニングができなければ、さらにトレーニングはできない。

 
アレクセイ・ヴャジミキン

なぜ、全体の10%以下のサンプルしか訓練しないのか、サンプルを増やせば改善につながるはずでは?

鍛えすぎたシステムは、どこに向かっていくのでしょう?

 
ファルハット・グザイロフ

再教育システムはどうでしょう、どこにつながるのでしょう?

サンプルが大きければ大きいほど、必要な葉や木の数が増えるという意味で、モデルへの当てはめが難しくなります。

 
ユーリイ・アサウレンコ

xは取引番号、yは利益額(pips )です。


4桁なのか、5桁なのか?

 
sibirqk


4サインなのか、5サインなのか。

全然サインになってない)
 
ユーリイ・アサウレンコ
全然サインになってないじゃん(笑))
では、ppsの利益額というのはどういう意味なのでしょうか。
 
sibirqk
では、利益をpipsで出すとはどういうことでしょうか。
これは交換ツールです。最もシンプルなシステムで利益が出る可能性を示しています。あとはまだ重要ではありません。
 
ウラジミール・ペレヴェンコ

それはちょっと違うんじゃないですか?例えばtrain[2000,]とtest[500,]がありますね。trainで初期例重みを1.0にして学習し、test[]で学習したモデルを予測させます。各テストプリフィックスの品質に基づいて、重みをつけています。次 に,trainとtestを組み合わせて新しい学習サンプルを形成し,モデルを学習し,テストするという作業を,すべての学習サンプルがこの方法で得られた重みを持つまで繰り返す.古いバーにはリダクションファクターを適用することができますが、私は確認していません。もちろん、これらはすべて分類のためです。

ELMで確認したところ、良好な結果が得られています。

グッドラック

新しいデータに対するモデルのパフォーマンスを向上させることができるのか、よくわからない。

例えば、クラスが正しく定義されていない場合、重みを減らしていき、極端なバリエーションとして0を置きます。したがって、さらなる学習では、サンプルからこれらの行を削除することに等しく、訓練ではすべてが100%の精度でうまくいき、テストでは、同じ円のマーキングで - もすべてがうまくいくでしょう。しかし、全く新しいデータでは、その線を引っ込めることはできず、すでにモデルの本当の実力を発揮することになるでしょう。

あるいはその逆で、間違った例に対して重量を増やしたのでしょうか?

 
エリブラリウス

新しいデータに対するモデルのパフォーマンスを向上させることができるのか、よくわからない。

例えば、クラスが正しく定義されていない場合は、重みを減らしていき、極端な変量0とします。したがって、その後の学習では、これらの行をサンプルから削除することと同じになり、トレイやテスト(これも循環的にマークします)で100%の精度ですべてがうまくいくことになります。しかし、全く新しいデータでは、線を捨てることができず、すでにモデルが本当にできることがあるはずです。

それとも、間違った例に対して、かえってウェイトを増やしたのでしょうか?

もちろん、ダウングレードは "悪い "例の場合です。上がれば......定番のブーストです。

実験して確認すればいいんです。

今はやっていません。学習前の前処理で、ノイズの多い例を削除したり、強調したりしています。

グッドラック

 
ユーリイ・アサウレンコ

なぜ5,000人以上必要なのですか?それで学べないなら、もっと学べない。

これはバカ発言の保管庫に入ります。

アレクセイ・ヴャジミキン

サンプルが大きければ大きいほど、より多くの葉や木が必要になるという意味で、モデルの適合が難しくなるのです。

その通り、多ければ多いほど良い(10万円以下はノイズ)のですが、市場が変化することを考慮しなければならず、それをどうトレーニングに反映させるかは大きな秘密です。