トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 595

 
サンサニッチ・フォメンコ

統計学」という建物に入ると、入り口の上に「Garbage in, rubbish out」と書かれています。




どんな指標も価格の関数である。ニューラルネットワークには、ノンリニアがあります。ネットワークが十分に深ければ、どんな指標式も自力で導き出すことができるのです。もし、ネットワークが価格データで学習できないとしたら、それは入力のせいではなく、価格に関する出力データを受け取ることができないからである。

 
グリゴーリイ チャーニン

どんな指標も価格の関数である。ニューラルネットはノンリニアである。ネットワークが十分に深ければ、どんな指標式も自力で導き出すことができるのです。もしネットワークが価格データから学習できないのであれば、それはインプットの問題ではなく、価格から出力データを得ることが原理的にできない、ということです。

お二人ともSanSanychさんのおっしゃる通りです。

一方では、NSが必要な指標とその総体を自動的に構築する。逆に、データが生ものであり、ノイズが多ければ、NSは何も学べない。だから、インプットも大事なんです。

 

NSのトレーニングにおいて、サンプルを混ぜることはどのように重要ですか? その数学的な正当性は?

ミキシングは、すべてのMOモデルに関係するのでしょうか、それとも特定のモデルだけに関係するのでしょうか?

 
マキシム・ドミトリエフスキー

NSのトレーニングにおいて、サンプルを混ぜることはどのように重要ですか? その数学的な正当性は?

ミキシングはMoDの全モデルに関係するのか、それとも特定のモデルにのみ関係するのか?

混合は、学習アルゴリズムがすべてのループで同じ経路をたどることを防ぐために必要である。そこまで行っても、局所的な極限状態から抜け出せなかったりします。しかし、ミキシングも万能ではありません。
 
ユーリイ・アサウレンコ
学習アルゴリズムがサイクルごとに同じ道をたどらないように、それを混ぜる必要がある。局所的な極限状態に陥り、そこから抜け出せないことがあります。

つまり、何回か混ぜてトレーニングして、結果の相関を見る必要があるのでしょうか?

 
マキシム・ドミトリエフスキー

つまり、シャッフルを数回行い、トレーニングを数回行い、その結果の相関を見るということです。

数エポックごとのトレーニング後に攪拌する。残念ながら、多くの学習アルゴリズムは休憩を許さず(Python - some packages (modules) 参照)、毎回ゼロからスタートします。

また、アニールと合わせて攪拌するのもよいでしょう。しかし、やはり機械でやるのは難しい。常に中間的な結果を見て、さらなるステップを計画する必要があるのです。

 
ユーリイ・アサウレンコ

数エポック学習するごとにシャッフルが必要である。残念ながら、多くの学習アルゴリズムは休憩を許さず(Python - some packages (modules) 参照)、毎回ゼロからスタートします。

また、アニールと合わせて攪拌するのもよいでしょう。しかし、やはり機械でやるのは難しい。常に中間結果を見ながら、次のステップを考えていかなければなりません。


うわぁ...そうだったのか...つまり、トレーニング前に混ぜてしまうと意味がないんだ

 
Alexander_K2:NSからgrailを引いた人を知っていますが、あの人たちはコミュニケーションや何をやっているのかのヒントすら閉ざされていて、初心者の僕にはチャンスが ないんです。VelsでもMetatraderでもS#でもなく、C++とMatLabに、キャリダーのデータをデコードして解釈するチップを 載せたもので、これが同じ手法であることがわかりました。

そして、今持っている)ガラガラヘビはCatBoost です。
---------
もし、ボソンを捕まえたくなったら...。
https://www.kaggle.com/c/higgs-boson

Higgs Boson Machine Learning Challenge
Higgs Boson Machine Learning Challenge
  • www.kaggle.com
Use the ATLAS experiment to identify the Higgs boson
 

Darchのデフォルトは各エポック前のミキシングです。電源を切ってみたが、まったく学習しない。

そこで思ったのですが、すべてがシャッフルされるのであれば、新鮮なデータをより強く学習に作用させるにはどうしたらいいのでしょうか。

 
エリブラリウス

Darchのデフォルトは各エポック前のミキシングです。電源を切ってみたが、まったく学習しない。

そこで思ったのですが、すべてがシャッフルされるのであれば、新鮮なデータをより強く学習に作用させるにはどうしたらいいのでしょうか。

クロスバリデーション(K-fold)を試してみる。
理由: