トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 595 1...588589590591592593594595596597598599600601602...3399 新しいコメント Grigoriy Chaunin 2018.01.21 10:42 #5941 サンサニッチ・フォメンコ 統計学」という建物に入ると、入り口の上に「Garbage in, rubbish out」と書かれています。どんな指標も価格の関数である。ニューラルネットワークには、ノンリニアがあります。ネットワークが十分に深ければ、どんな指標式も自力で導き出すことができるのです。もし、ネットワークが価格データで学習できないとしたら、それは入力のせいではなく、価格に関する出力データを受け取ることができないからである。 Yuriy Asaulenko 2018.01.21 10:53 #5942 グリゴーリイ チャーニン どんな指標も価格の関数である。ニューラルネットはノンリニアである。ネットワークが十分に深ければ、どんな指標式も自力で導き出すことができるのです。もしネットワークが価格データから学習できないのであれば、それはインプットの問題ではなく、価格から出力データを得ることが原理的にできない、ということです。お二人ともSanSanychさんのおっしゃる通りです。一方では、NSが必要な指標とその総体を自動的に構築する。逆に、データが生ものであり、ノイズが多ければ、NSは何も学べない。だから、インプットも大事なんです。 Maxim Dmitrievsky 2018.01.21 15:05 #5943 NSのトレーニングにおいて、サンプルを混ぜることはどのように重要ですか? その数学的な正当性は?ミキシングは、すべてのMOモデルに関係するのでしょうか、それとも特定のモデルだけに関係するのでしょうか? Yuriy Asaulenko 2018.01.21 15:11 #5944 マキシム・ドミトリエフスキーNSのトレーニングにおいて、サンプルを混ぜることはどのように重要ですか? その数学的な正当性は?ミキシングはMoDの全モデルに関係するのか、それとも特定のモデルにのみ関係するのか? 混合は、学習アルゴリズムがすべてのループで同じ経路をたどることを防ぐために必要である。そこまで行っても、局所的な極限状態から抜け出せなかったりします。しかし、ミキシングも万能ではありません。 Maxim Dmitrievsky 2018.01.21 15:12 #5945 ユーリイ・アサウレンコ 学習アルゴリズムがサイクルごとに同じ道をたどらないように、それを混ぜる必要がある。局所的な極限状態に陥り、そこから抜け出せないことがあります。つまり、何回か混ぜてトレーニングして、結果の相関を見る必要があるのでしょうか? Yuriy Asaulenko 2018.01.21 15:20 #5946 マキシム・ドミトリエフスキー つまり、シャッフルを数回行い、トレーニングを数回行い、その結果の相関を見るということです。数エポックごとのトレーニング後に攪拌する。残念ながら、多くの学習アルゴリズムは休憩を許さず(Python - some packages (modules) 参照)、毎回ゼロからスタートします。また、アニールと合わせて攪拌するのもよいでしょう。しかし、やはり機械でやるのは難しい。常に中間的な結果を見て、さらなるステップを計画する必要があるのです。 Maxim Dmitrievsky 2018.01.21 15:36 #5947 ユーリイ・アサウレンコ数エポック学習するごとにシャッフルが必要である。残念ながら、多くの学習アルゴリズムは休憩を許さず(Python - some packages (modules) 参照)、毎回ゼロからスタートします。また、アニールと合わせて攪拌するのもよいでしょう。しかし、やはり機械でやるのは難しい。常に中間結果を見ながら、次のステップを考えていかなければなりません。うわぁ...そうだったのか...つまり、トレーニング前に混ぜてしまうと意味がないんだ Vizard_ 2018.01.21 16:25 #5948 Alexander_K2:NSからgrailを引いた人を知っていますが、あの人たちはコミュニケーションや何をやっているのかのヒントすら閉ざされていて、初心者の僕にはチャンスが ないんです。VelsでもMetatraderでもS#でもなく、C++とMatLabに、キャリダーのデータをデコードして解釈するチップを 載せたもので、これが同じ手法であることがわかりました。そして、今持っている)ガラガラヘビはCatBoost です。--------- もし、ボソンを捕まえたくなったら...。 https://www.kaggle.com/c/higgs-boson Higgs Boson Machine Learning Challenge www.kaggle.com Use the ATLAS experiment to identify the Higgs boson Forester 2018.01.21 18:22 #5949 Darchのデフォルトは各エポック前のミキシングです。電源を切ってみたが、まったく学習しない。そこで思ったのですが、すべてがシャッフルされるのであれば、新鮮なデータをより強く学習に作用させるにはどうしたらいいのでしょうか。 Aleksey Terentev 2018.01.21 18:40 #5950 エリブラリウスDarchのデフォルトは各エポック前のミキシングです。電源を切ってみたが、まったく学習しない。そこで思ったのですが、すべてがシャッフルされるのであれば、新鮮なデータをより強く学習に作用させるにはどうしたらいいのでしょうか。 クロスバリデーション(K-fold)を試してみる。 1...588589590591592593594595596597598599600601602...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
統計学」という建物に入ると、入り口の上に「Garbage in, rubbish out」と書かれています。
どんな指標も価格の関数である。ニューラルネットワークには、ノンリニアがあります。ネットワークが十分に深ければ、どんな指標式も自力で導き出すことができるのです。もし、ネットワークが価格データで学習できないとしたら、それは入力のせいではなく、価格に関する出力データを受け取ることができないからである。
どんな指標も価格の関数である。ニューラルネットはノンリニアである。ネットワークが十分に深ければ、どんな指標式も自力で導き出すことができるのです。もしネットワークが価格データから学習できないのであれば、それはインプットの問題ではなく、価格から出力データを得ることが原理的にできない、ということです。
お二人ともSanSanychさんのおっしゃる通りです。
一方では、NSが必要な指標とその総体を自動的に構築する。逆に、データが生ものであり、ノイズが多ければ、NSは何も学べない。だから、インプットも大事なんです。
NSのトレーニングにおいて、サンプルを混ぜることはどのように重要ですか? その数学的な正当性は?
ミキシングは、すべてのMOモデルに関係するのでしょうか、それとも特定のモデルだけに関係するのでしょうか?
NSのトレーニングにおいて、サンプルを混ぜることはどのように重要ですか? その数学的な正当性は?
ミキシングはMoDの全モデルに関係するのか、それとも特定のモデルにのみ関係するのか?
学習アルゴリズムがサイクルごとに同じ道をたどらないように、それを混ぜる必要がある。局所的な極限状態に陥り、そこから抜け出せないことがあります。
つまり、何回か混ぜてトレーニングして、結果の相関を見る必要があるのでしょうか?
つまり、シャッフルを数回行い、トレーニングを数回行い、その結果の相関を見るということです。
数エポックごとのトレーニング後に攪拌する。残念ながら、多くの学習アルゴリズムは休憩を許さず(Python - some packages (modules) 参照)、毎回ゼロからスタートします。
また、アニールと合わせて攪拌するのもよいでしょう。しかし、やはり機械でやるのは難しい。常に中間的な結果を見て、さらなるステップを計画する必要があるのです。
数エポック学習するごとにシャッフルが必要である。残念ながら、多くの学習アルゴリズムは休憩を許さず(Python - some packages (modules) 参照)、毎回ゼロからスタートします。
また、アニールと合わせて攪拌するのもよいでしょう。しかし、やはり機械でやるのは難しい。常に中間結果を見ながら、次のステップを考えていかなければなりません。
うわぁ...そうだったのか...つまり、トレーニング前に混ぜてしまうと意味がないんだ
そして、今持っている)ガラガラヘビはCatBoost です。
---------
もし、ボソンを捕まえたくなったら...。
https://www.kaggle.com/c/higgs-boson
Darchのデフォルトは各エポック前のミキシングです。電源を切ってみたが、まったく学習しない。
そこで思ったのですが、すべてがシャッフルされるのであれば、新鮮なデータをより強く学習に作用させるにはどうしたらいいのでしょうか。
Darchのデフォルトは各エポック前のミキシングです。電源を切ってみたが、まったく学習しない。
そこで思ったのですが、すべてがシャッフルされるのであれば、新鮮なデータをより強く学習に作用させるにはどうしたらいいのでしょうか。