トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 608 1...601602603604605606607608609610611612613614615...3399 新しいコメント Maxim Dmitrievsky 2018.01.24 22:26 #6071 Dr.トレーダーNSのアンサンブルに似ているたしか Forester 2018.01.24 22:33 #6072 Dr.トレーダーそして、モデルのパラメータ(活性化関数、層の数とサイズなど)を選択し、毎回、これらのステップ(5つのモデルを学習し、各モデルに固有の5つの塊を予測し、それらを組み合わせる、R2)をすべて行い、より良い推定を実現しています。これは、何百ものネットワークを構築し、訓練することになるのです。でも今のところ他の選択肢はないですね( Maxim Dmitrievsky 2018.01.24 22:44 #6073 今週はもう寝て、本を仕上げなければなりません。1時間1000ポンドと書けば、ペルチックの個人レッスンが受けられると思う。ペルペルキンはもう少し高くつくが、それだけの価値はある。男、ペルチックに本気か(笑)お抱え運転手に1,000円払うこと。もう一人の方は何も知らない...知りたくもない)とにかく、面白いけど、もう寝て、今週中に本を終わらせるつもりです。 Dr. Trader 2018.01.24 22:47 #6074 マキシム・ドミトリエフスキー は、NSのアンサンブルに過ぎないような気がします。ということです。最後には普通のアンサンブルを手に入れることができますよ。しかし、「スプレッドシート全体に対して5つのニューロンを学習させる」よりは、はるかに良い結果が得られるでしょう。ヴィザード_。まあ、そうですね、標準のオプションですが、私はqvなしの方が好きです、前にも書きましたが・・・。 先生、パラメータを変えて急勾配を固定し、テストしてみてください。私はLibreOfficeを持っています、そのneuronicsはそれで動作しませんでした。エリブラリウスこれは、何百ものネットワークを構築し、訓練することになるのです。しかし、今のところ他の選択肢は見えていない(だから、例えばRのgbmパッケージは、学習速度が桁違いに速いんです。ニューロニックではなく、足場固め、ブーストです。また、ニューラルネットワークのトレーニングのエポック数が少なくても、k-foldクロスバリデーションがうまく機能したのは興味深いことです。エポック数は、私が選んだ学習パラメータの一つです。エポック数が少ない=学習速度が速い、これはプラスです。でも、モデルの可能精度が低くなってしまうのはマイナスですね。 Dr. Trader 2018.01.24 23:06 #6075 Dr.トレーダーk-foldクロスバリデーションの方法を学ぶことをお勧めします。いくつかの方法を見たが、これはよく効く -。...また、neuronkaの初期重みはランダムに設定されるというニュアンスがあり、forestや他のモデルも含めて、最終的な学習結果はこれに大きく依存する可能性があります。 モデルを学習させる前に、毎回、乱数発生 器の値を同じ状態に設定しました。set.seed(12345)こうすることで、再現性のある結果と安定性を得ることができるんです。また、12345の代わりにgpschの粒度が拾えますが、これはかなりおかしな響きですが、時に必要なことです。 Sergey Chalyshev 2018.01.24 23:15 #6076 Dr.トレーダー もう一つのニュアンスは、neuronkaの初期重みはランダムに設定され、forestや他のモデルも含めて、最終的な学習結果に大きく依存する可能性があることです。 モデルを学習させる前に、毎回、乱数発生 器の値を同じ状態に設定しています。そうすることで、再現性と安定性を得ることができるのです。また、12345の代わりにgpshの粒の値を調整することができます。これはかなりおかしな話ですが、時には必要なことです。gpshの値にそのように反応するのですから、ネットワークをゴミ箱に捨てるべきです。 正常なネットワークは、どんな初期値でも、たとえゼロ値でも動作し、学習するのです。 Dr. Trader 2018.01.24 23:52 #6077 セルゲイ・チャリシェフそのニューロンに多くのニューロンと層、そして無限の学習エポックを与えれば、どんな初期粒子があっても望ましい精度まで問題なく学習することができるのです。私などは、1本あたりの価格の上昇を予測しながら勉強しています。問題は、価格には多くのノイズ(実質価格+-多少のランダムな変動)があり、そのノイズを予測することは不可能であることです。しかし、クロスバリデーションを使って、モデルがまだノイズを覚えていないけれども、何らかの方法でそのデータをコンパイルして、少なくともごく一部のケースでは正しい予測をするようなパラメータを選ぶ ことができるのです。そして、ある重みの初期値を設定すると、モデルはすぐにこれらのデータを一般化しようとするのではなく、ノイズを記憶し始めるので、それはまずい、ならば重みの初期化には別の初期粒子を探すべきだ。 Maxim Dmitrievsky 2018.01.25 03:12 #6078 セルゲイ・チャリシェフ gpshの値に反応するようなネットワークはゴミ箱に捨ててください。 通常のネットワークはどんな初期値でも、たとえ0でも動作し、学習します。これは、動的なシステムで静的なメソッドを 使用することはできないということを説明したものに過ぎません。これは、動的なシステムには静的なメソッドを使うべきではないということの説明のひとつに過ぎません。 Maxim Dmitrievsky 2018.01.25 05:46 #6079 では次に、シールズの写真ではなく、時間軸で学習するためのアーキテクチャを考えてみましょう。オプション1です。 Maxim Dmitrievsky 2018.01.25 07:04 #6080 オプション2:NSとオートマトンの組み合わせは、プラスとマイナスの回路があり、良い解決策に思えますが、誰がどのように実装するのかは別の問題です。私個人としては、この方法が最も分かりやすいと思います。 1...601602603604605606607608609610611612613614615...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
NSのアンサンブルに似ている
たしか
そして、モデルのパラメータ(活性化関数、層の数とサイズなど)を選択し、毎回、これらのステップ(5つのモデルを学習し、各モデルに固有の5つの塊を予測し、それらを組み合わせる、R2)をすべて行い、より良い推定を実現しています。
これは、何百ものネットワークを構築し、訓練することになるのです。でも今のところ他の選択肢はないですね(
1時間1000ポンドと書けば、ペルチックの個人レッスンが受けられると思う。ペルペルキンはもう少し高くつくが、それだけの価値はある。
男、ペルチックに本気か(笑)
お抱え運転手に1,000円払うこと。
もう一人の方は何も知らない...知りたくもない)
とにかく、面白いけど、もう寝て、今週中に本を終わらせるつもりです。
は、NSのアンサンブルに過ぎないような気がします。
ということです。
最後には普通のアンサンブルを手に入れることができますよ。しかし、「スプレッドシート全体に対して5つのニューロンを学習させる」よりは、はるかに良い結果が得られるでしょう。
まあ、そうですね、標準のオプションですが、私はqvなしの方が好きです、前にも書きましたが・・・。
先生、パラメータを変えて急勾配を固定し、テストしてみてください。
私はLibreOfficeを持っています、そのneuronicsはそれで動作しませんでした。
これは、何百ものネットワークを構築し、訓練することになるのです。しかし、今のところ他の選択肢は見えていない(
だから、例えばRのgbmパッケージは、学習速度が桁違いに速いんです。ニューロニックではなく、足場固め、ブーストです。
また、ニューラルネットワークのトレーニングのエポック数が少なくても、k-foldクロスバリデーションがうまく機能したのは興味深いことです。エポック数は、私が選んだ学習パラメータの一つです。エポック数が少ない=学習速度が速い、これはプラスです。でも、モデルの可能精度が低くなってしまうのはマイナスですね。
k-foldクロスバリデーションの方法を学ぶことをお勧めします。いくつかの方法を見たが、これはよく効く -。
...
また、neuronkaの初期重みはランダムに設定されるというニュアンスがあり、forestや他のモデルも含めて、最終的な学習結果はこれに大きく依存する可能性があります。
モデルを学習させる前に、毎回、乱数発生 器の値を同じ状態に設定しました。
set.seed(12345)
こうすることで、再現性のある結果と安定性を得ることができるんです。また、12345の代わりにgpschの粒度が拾えますが、これはかなりおかしな響きですが、時に必要なことです。
もう一つのニュアンスは、neuronkaの初期重みはランダムに設定され、forestや他のモデルも含めて、最終的な学習結果に大きく依存する可能性があることです。
モデルを学習させる前に、毎回、乱数発生 器の値を同じ状態に設定しています。
そうすることで、再現性と安定性を得ることができるのです。また、12345の代わりにgpshの粒の値を調整することができます。これはかなりおかしな話ですが、時には必要なことです。
gpshの値にそのように反応するのですから、ネットワークをゴミ箱に捨てるべきです。 正常なネットワークは、どんな初期値でも、たとえゼロ値でも動作し、学習するのです。
そのニューロンに多くのニューロンと層、そして無限の学習エポックを与えれば、どんな初期粒子があっても望ましい精度まで問題なく学習することができるのです。
私などは、1本あたりの価格の上昇を予測しながら勉強しています。問題は、価格には多くのノイズ(実質価格+-多少のランダムな変動)があり、そのノイズを予測することは不可能であることです。しかし、クロスバリデーションを使って、モデルがまだノイズを覚えていないけれども、何らかの方法でそのデータをコンパイルして、少なくともごく一部のケースでは正しい予測をするようなパラメータを選ぶ ことができるのです。そして、ある重みの初期値を設定すると、モデルはすぐにこれらのデータを一般化しようとするのではなく、ノイズを記憶し始めるので、それはまずい、ならば重みの初期化には別の初期粒子を探すべきだ。
gpshの値に反応するようなネットワークはゴミ箱に捨ててください。 通常のネットワークはどんな初期値でも、たとえ0でも動作し、学習します。
これは、動的なシステムで静的なメソッドを 使用することはできないということを説明したものに過ぎません。
これは、動的なシステムには静的なメソッドを使うべきではないということの説明のひとつに過ぎません。
では次に、シールズの写真ではなく、時間軸で学習するためのアーキテクチャを考えてみましょう。オプション1です。
オプション2:
NSとオートマトンの組み合わせは、プラスとマイナスの回路があり、良い解決策に思えますが、誰がどのように実装するのかは別の問題です。私個人としては、この方法が最も分かりやすいと思います。