トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 408

 

皆さん、こんにちは。


参加者はどのMLパッケージを使っているのか、それともすべてMQLで行っているのか、はっきりさせてください。

 

意外とファイルが読める、モデルの品質が悪い、検証で確認したい人がいる...。

ファイル:
 
ミハイル・マルキュカイツ

意外とファイルが読める、モデルの品質が弱い、検証で確認したい人がいる......。

ファイルには、次のように書かれています。
* TruePositives:853件
* TrueNegatives: 1098
* 偽陽性:732件
* FalseNegatives: 985

すなわち、ほぼ半々である。
もう少し単純な論理問題でもほぼ同じ結果が得られたので、ノイズの入力がRNNの結果を大きく狂わせているのだろうと推測しました。

 
エリブラリウス

このファイルには
* TruePositives:853件
* TrueNegatives: 1098
* 偽陽性:732件
* FalseNegatives: 985

すなわち、ほぼ半々である。
もう少し単純な論理問題でもほぼ同じ結果が得られたので、ノイズ入力がRNNの結果を非常にスポイルしていると考えたわけです。


そうですね、モデルの一般化率は52%ですから......。
 
アレクセイ・テレンテフ

皆さん、こんにちは。


参加者はどのMLパッケージを使っているのか、それともすべてMQLでやっているのか、はっきりさせてください。

一部のモデルをMQLで書き直そうとしている一部のマニアを除いて、原則としてすべてRで行っています。パッケージについては、ツリー、ニューラルネットワーク、ディープニューラルネットワークなど、どのモデルを使うかによります。

どの機種に興味がありますか?

グッドラック

 
ウラジミール・ペレヴェンコ

一部のマニアがMCLでモデルを書き直そうとする以外は、原則としてすべてRで行っています。パッケージについては、ツリー、ニューラルネットワーク、ディープニューラルネットワークなど、どのモデルを使うかによります。

どの機種に興味がありますか?

グッドラック


レシェトフのオプティマイザーを忘れていますね、ここでも使われているのですが......。
 
エリブラリウス

このファイルには
* TruePositives:853件
* TrueNegatives: 1098
* 偽陽性:732件
* FalseNegatives: 985

すなわち、ほぼ半々である。
もう少し単純な論理問題でもほぼ同じ結果が得られたので、ノイズ入力がRNNの結果を非常にスポイルしていると考えたわけです。


通常のMLP20-5-1でも、同じ問題に対してそれができる。

学習時の平均誤差(60.0%) plot =0.116 (11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
バリデーションでの平均誤差(20.0%) section =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差(20.0%) =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
計算時間=0.77min.

50%も出ることがありますが、2回以上の再トレーニングが必要なようです。
---------------------------------

Rのネットワークnnet 20-1-1 :
予想
実績 0 1 誤差
0 0.41 0.09 0.18
1 0.24 0.26 0.48

少し悪いですが、数秒で解決します。

しかし、RNNは、学習区間では、誤差=0となっている。それもカッコいい。実験の様子をブログに書いてみようかな

 
エリブラリウス

普通のMLP20-5-1でも、同じ問題に対してこれを出すことができる。

学習時の平均誤差(60.0%) plot =0.116 (11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
バリデーションでの平均誤差(20.0%) section =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差(20.0%) =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
計算時間=0.77分
---------------------------------

Rからネットワークnnet 20-1-1 :
予想
実績 0 1 誤差
0 0.41 0.09 0.18
1 0.24 0.26 0.48

少し悪いですが、数秒で解決します。

ここで少し違う理解をしなければならないのは、問題を解決することは難しいことではなく、そのモデルが将来どのような振る舞いをするのかという問題です。素早く、ミスなく学習することができるのです。しかし、新しいデータがあれば、何も手に入らない。Predikshinには非常に優れた特徴があり、新しいデータに対しても学習時と同じエラー率で動作します。だって、再教育しないし、ボッタクリだし。そして、他のネットワークはこの例を非常に速く学習することができますが、新しいデータに対してはずっと悪い結果を示すのです......。IMHO
 
ミハイル・マルキュカイツ

問題を解決することは難しいことではなく、その後にモデルがどのように振る舞うかが問題なのだと認識しなければなりません。素早く、ミスなく学習することができるのです。そして、新しいデータがあれば、私たちは何も手に入れることができません。Predikshinには非常に優れた特徴があり、新しいデータに対しても学習時と同じエラー率で動作します。だって、再教育しないし、ボッタクリだし。そして、他のネットワークはこの例を非常に速く学習することができますが、新しいデータに対してはずっと悪い結果を示すのです......。IMHO

そこで、新しいデータをご紹介します。

検証時の平均誤差 (20.0%) section =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差(20.0%) site =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2

 
エリブラリウス

そこで、新しいデータをご紹介します。

検証時の平均誤差(20.0%) plot =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差 (20.0%) plot =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2


議論しているわけではない、そうかもしれない...。:-)
理由: