トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1376 1...136913701371137213731374137513761377137813791380138113821383...3399 新しいコメント Yuriy Asaulenko 2019.02.26 19:58 #13751 アレクセイ・ヴャジミキンなぜ全体の10%以下のサンプルで研究するのか、もっとサンプリングして改善につなげるべきじゃないのか。また、なぜ5k以上なのでしょうか?その上でトレーニングができなければ、さらにトレーニングはできない。 Farkhat Guzairov 2019.02.26 20:03 #13752 アレクセイ・ヴャジミキンなぜ、全体の10%以下のサンプルしか訓練しないのか、サンプルを増やせば改善につながるはずでは?鍛えすぎたシステムは、どこに向かっていくのでしょう? Aleksey Vyazmikin 2019.02.26 20:22 #13753 ファルハット・グザイロフ再教育システムはどうでしょう、どこにつながるのでしょう?サンプルが大きければ大きいほど、必要な葉や木の数が増えるという意味で、モデルへの当てはめが難しくなります。 sibirqk 2019.02.27 04:35 #13754 ユーリイ・アサウレンコxは取引番号、yは利益額(pips )です。 4桁なのか、5桁なのか? Yuriy Asaulenko 2019.02.27 04:42 #13755 sibirqk 4サインなのか、5サインなのか。 全然サインになってない) sibirqk 2019.02.27 04:55 #13756 ユーリイ・アサウレンコ 全然サインになってないじゃん(笑)) では、ppsの利益額というのはどういう意味なのでしょうか。 Yuriy Asaulenko 2019.02.27 05:18 #13757 sibirqk では、利益をpipsで出すとはどういうことでしょうか。 これは交換ツールです。最もシンプルなシステムで利益が出る可能性を示しています。あとはまだ重要ではありません。 Forester 2019.02.27 06:52 #13758 ウラジミール・ペレヴェンコそれはちょっと違うんじゃないですか?例えばtrain[2000,]とtest[500,]がありますね。trainで初期例重みを1.0にして学習し、test[]で学習したモデルを予測させます。各テストプリフィックスの品質に基づいて、重みをつけています。次 に,trainとtestを組み合わせて新しい学習サンプルを形成し,モデルを学習し,テストするという作業を,すべての学習サンプルがこの方法で得られた重みを持つまで繰り返す.古いバーにはリダクションファクターを適用することができますが、私は確認していません。もちろん、これらはすべて分類のためです。 ELMで確認したところ、良好な結果が得られています。 グッドラック新しいデータに対するモデルのパフォーマンスを向上させることができるのか、よくわからない。 例えば、クラスが正しく定義されていない場合、重みを減らしていき、極端なバリエーションとして0を置きます。したがって、さらなる学習では、サンプルからこれらの行を削除することに等しく、訓練ではすべてが100%の精度でうまくいき、テストでは、同じ円のマーキングで - もすべてがうまくいくでしょう。しかし、全く新しいデータでは、その線を引っ込めることはできず、すでにモデルの本当の実力を発揮することになるでしょう。 あるいはその逆で、間違った例に対して重量を増やしたのでしょうか? Vladimir Perervenko 2019.02.27 06:59 #13759 エリブラリウス新しいデータに対するモデルのパフォーマンスを向上させることができるのか、よくわからない。 例えば、クラスが正しく定義されていない場合は、重みを減らしていき、極端な変量0とします。したがって、その後の学習では、これらの行をサンプルから削除することと同じになり、トレイやテスト(これも循環的にマークします)で100%の精度ですべてがうまくいくことになります。しかし、全く新しいデータでは、線を捨てることができず、すでにモデルが本当にできることがあるはずです。 それとも、間違った例に対して、かえってウェイトを増やしたのでしょうか?もちろん、ダウングレードは "悪い "例の場合です。上がれば......定番のブーストです。 実験して確認すればいいんです。 今はやっていません。学習前の前処理で、ノイズの多い例を削除したり、強調したりしています。 グッドラック Грааль 2019.02.27 13:27 #13760 ユーリイ・アサウレンコなぜ5,000人以上必要なのですか?それで学べないなら、もっと学べない。これはバカ発言の保管庫に入ります。 アレクセイ・ヴャジミキンサンプルが大きければ大きいほど、より多くの葉や木が必要になるという意味で、モデルの適合が難しくなるのです。 その通り、多ければ多いほど良い(10万円以下はノイズ)のですが、市場が変化することを考慮しなければならず、それをどうトレーニングに反映させるかは大きな秘密です。 1...136913701371137213731374137513761377137813791380138113821383...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
なぜ全体の10%以下のサンプルで研究するのか、もっとサンプリングして改善につなげるべきじゃないのか。
また、なぜ5k以上なのでしょうか?その上でトレーニングができなければ、さらにトレーニングはできない。
なぜ、全体の10%以下のサンプルしか訓練しないのか、サンプルを増やせば改善につながるはずでは?
鍛えすぎたシステムは、どこに向かっていくのでしょう?
再教育システムはどうでしょう、どこにつながるのでしょう?
サンプルが大きければ大きいほど、必要な葉や木の数が増えるという意味で、モデルへの当てはめが難しくなります。
xは取引番号、yは利益額(pips )です。
4桁なのか、5桁なのか?
4サインなのか、5サインなのか。
全然サインになってないじゃん(笑))
では、利益をpipsで出すとはどういうことでしょうか。
それはちょっと違うんじゃないですか?例えばtrain[2000,]とtest[500,]がありますね。trainで初期例重みを1.0にして学習し、test[]で学習したモデルを予測させます。各テストプリフィックスの品質に基づいて、重みをつけています。次 に,trainとtestを組み合わせて新しい学習サンプルを形成し,モデルを学習し,テストするという作業を,すべての学習サンプルがこの方法で得られた重みを持つまで繰り返す.古いバーにはリダクションファクターを適用することができますが、私は確認していません。もちろん、これらはすべて分類のためです。
ELMで確認したところ、良好な結果が得られています。
グッドラック
新しいデータに対するモデルのパフォーマンスを向上させることができるのか、よくわからない。
例えば、クラスが正しく定義されていない場合、重みを減らしていき、極端なバリエーションとして0を置きます。したがって、さらなる学習では、サンプルからこれらの行を削除することに等しく、訓練ではすべてが100%の精度でうまくいき、テストでは、同じ円のマーキングで - もすべてがうまくいくでしょう。しかし、全く新しいデータでは、その線を引っ込めることはできず、すでにモデルの本当の実力を発揮することになるでしょう。
あるいはその逆で、間違った例に対して重量を増やしたのでしょうか?
新しいデータに対するモデルのパフォーマンスを向上させることができるのか、よくわからない。
例えば、クラスが正しく定義されていない場合は、重みを減らしていき、極端な変量0とします。したがって、その後の学習では、これらの行をサンプルから削除することと同じになり、トレイやテスト(これも循環的にマークします)で100%の精度ですべてがうまくいくことになります。しかし、全く新しいデータでは、線を捨てることができず、すでにモデルが本当にできることがあるはずです。
それとも、間違った例に対して、かえってウェイトを増やしたのでしょうか?
もちろん、ダウングレードは "悪い "例の場合です。上がれば......定番のブーストです。
実験して確認すればいいんです。
今はやっていません。学習前の前処理で、ノイズの多い例を削除したり、強調したりしています。
グッドラック
なぜ5,000人以上必要なのですか?それで学べないなら、もっと学べない。
これはバカ発言の保管庫に入ります。
サンプルが大きければ大きいほど、より多くの葉や木が必要になるという意味で、モデルの適合が難しくなるのです。
その通り、多ければ多いほど良い(10万円以下はノイズ)のですが、市場が変化することを考慮しなければならず、それをどうトレーニングに反映させるかは大きな秘密です。