トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 408 1...401402403404405406407408409410411412413414415...3399 新しいコメント Aleksey Terentev 2017.06.13 11:59 #4071 皆さん、こんにちは。 参加者はどのMLパッケージを使っているのか、それともすべてMQLで行っているのか、はっきりさせてください。 Mihail Marchukajtes 2017.06.13 13:02 #4072 意外とファイルが読める、モデルの品質が悪い、検証で確認したい人がいる...。 ファイル: dummy_set_features.mqh 6 kb Forester 2017.06.13 13:09 #4073 ミハイル・マルキュカイツ意外とファイルが読める、モデルの品質が弱い、検証で確認したい人がいる......。ファイルには、次のように書かれています。* TruePositives:853件* TrueNegatives: 1098* 偽陽性:732件* FalseNegatives: 985すなわち、ほぼ半々である。 もう少し単純な論理問題でもほぼ同じ結果が得られたので、ノイズの入力がRNNの結果を大きく狂わせているのだろうと推測しました。 Mihail Marchukajtes 2017.06.13 13:15 #4074 エリブラリウスこのファイルには* TruePositives:853件* TrueNegatives: 1098* 偽陽性:732件* FalseNegatives: 985すなわち、ほぼ半々である。 もう少し単純な論理問題でもほぼ同じ結果が得られたので、ノイズ入力がRNNの結果を非常にスポイルしていると考えたわけです。 そうですね、モデルの一般化率は52%ですから......。 Vladimir Perervenko 2017.06.13 13:16 #4075 アレクセイ・テレンテフ: 皆さん、こんにちは。 参加者はどのMLパッケージを使っているのか、それともすべてMQLでやっているのか、はっきりさせてください。一部のモデルをMQLで書き直そうとしている一部のマニアを除いて、原則としてすべてRで行っています。パッケージについては、ツリー、ニューラルネットワーク、ディープニューラルネットワークなど、どのモデルを使うかによります。どの機種に興味がありますか?グッドラック Mihail Marchukajtes 2017.06.13 13:17 #4076 ウラジミール・ペレヴェンコ一部のマニアがMCLでモデルを書き直そうとする以外は、原則としてすべてRで行っています。パッケージについては、ツリー、ニューラルネットワーク、ディープニューラルネットワークなど、どのモデルを使うかによります。どの機種に興味がありますか?グッドラック レシェトフのオプティマイザーを忘れていますね、ここでも使われているのですが......。 Forester 2017.06.13 13:18 #4077 エリブラリウスこのファイルには* TruePositives:853件* TrueNegatives: 1098* 偽陽性:732件* FalseNegatives: 985すなわち、ほぼ半々である。 もう少し単純な論理問題でもほぼ同じ結果が得られたので、ノイズ入力がRNNの結果を非常にスポイルしていると考えたわけです。 通常のMLP20-5-1でも、同じ問題に対してそれができる。学習時の平均誤差(60.0%) plot =0.116 (11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 バリデーションでの平均誤差(20.0%) section =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 テスト時の平均誤差(20.0%) =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 計算時間=0.77min.50%も出ることがありますが、2回以上の再トレーニングが必要なようです。---------------------------------Rのネットワークnnet 20-1-1 : 予想 実績 0 1 誤差 0 0.41 0.09 0.18 1 0.24 0.26 0.48少し悪いですが、数秒で解決します。しかし、RNNは、学習区間では、誤差=0となっている。それもカッコいい。実験の様子をブログに書いてみようかな テストの操作ログ - アルゴリズム取引、自動売買ロボット Mihail Marchukajtes 2017.06.13 13:22 #4078 エリブラリウス 普通のMLP20-5-1でも、同じ問題に対してこれを出すことができる。学習時の平均誤差(60.0%) plot =0.116 (11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 バリデーションでの平均誤差(20.0%) section =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 テスト時の平均誤差(20.0%) =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 計算時間=0.77分---------------------------------Rからネットワークnnet 20-1-1 : 予想 実績 0 1 誤差 0 0.41 0.09 0.18 1 0.24 0.26 0.48 少し悪いですが、数秒で解決します。 ここで少し違う理解をしなければならないのは、問題を解決することは難しいことではなく、そのモデルが将来どのような振る舞いをするのかという問題です。素早く、ミスなく学習することができるのです。しかし、新しいデータがあれば、何も手に入らない。Predikshinには非常に優れた特徴があり、新しいデータに対しても学習時と同じエラー率で動作します。だって、再教育しないし、ボッタクリだし。そして、他のネットワークはこの例を非常に速く学習することができますが、新しいデータに対してはずっと悪い結果を示すのです......。IMHO Forester 2017.06.13 13:23 #4079 ミハイル・マルキュカイツ 問題を解決することは難しいことではなく、その後にモデルがどのように振る舞うかが問題なのだと認識しなければなりません。素早く、ミスなく学習することができるのです。そして、新しいデータがあれば、私たちは何も手に入れることができません。Predikshinには非常に優れた特徴があり、新しいデータに対しても学習時と同じエラー率で動作します。だって、再教育しないし、ボッタクリだし。そして、他のネットワークはこの例を非常に速く学習することができますが、新しいデータに対してはずっと悪い結果を示すのです......。IMHOそこで、新しいデータをご紹介します。検証時の平均誤差 (20.0%) section =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 テスト時の平均誤差(20.0%) site =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 Mihail Marchukajtes 2017.06.13 13:25 #4080 エリブラリウスそこで、新しいデータをご紹介します。検証時の平均誤差(20.0%) plot =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 テスト時の平均誤差 (20.0%) plot =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2 議論しているわけではない、そうかもしれない...。:-) 1...401402403404405406407408409410411412413414415...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
皆さん、こんにちは。
参加者はどのMLパッケージを使っているのか、それともすべてMQLで行っているのか、はっきりさせてください。
意外とファイルが読める、モデルの品質が悪い、検証で確認したい人がいる...。
意外とファイルが読める、モデルの品質が弱い、検証で確認したい人がいる......。
ファイルには、次のように書かれています。
* TruePositives:853件
* TrueNegatives: 1098
* 偽陽性:732件
* FalseNegatives: 985
すなわち、ほぼ半々である。
もう少し単純な論理問題でもほぼ同じ結果が得られたので、ノイズの入力がRNNの結果を大きく狂わせているのだろうと推測しました。
このファイルには
* TruePositives:853件
* TrueNegatives: 1098
* 偽陽性:732件
* FalseNegatives: 985
すなわち、ほぼ半々である。
もう少し単純な論理問題でもほぼ同じ結果が得られたので、ノイズ入力がRNNの結果を非常にスポイルしていると考えたわけです。
そうですね、モデルの一般化率は52%ですから......。
皆さん、こんにちは。
参加者はどのMLパッケージを使っているのか、それともすべてMQLでやっているのか、はっきりさせてください。
一部のモデルをMQLで書き直そうとしている一部のマニアを除いて、原則としてすべてRで行っています。パッケージについては、ツリー、ニューラルネットワーク、ディープニューラルネットワークなど、どのモデルを使うかによります。
どの機種に興味がありますか?
グッドラック
一部のマニアがMCLでモデルを書き直そうとする以外は、原則としてすべてRで行っています。パッケージについては、ツリー、ニューラルネットワーク、ディープニューラルネットワークなど、どのモデルを使うかによります。
どの機種に興味がありますか?
グッドラック
レシェトフのオプティマイザーを忘れていますね、ここでも使われているのですが......。
このファイルには
* TruePositives:853件
* TrueNegatives: 1098
* 偽陽性:732件
* FalseNegatives: 985
すなわち、ほぼ半々である。
もう少し単純な論理問題でもほぼ同じ結果が得られたので、ノイズ入力がRNNの結果を非常にスポイルしていると考えたわけです。
通常のMLP20-5-1でも、同じ問題に対してそれができる。
学習時の平均誤差(60.0%) plot =0.116 (11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
バリデーションでの平均誤差(20.0%) section =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差(20.0%) =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
計算時間=0.77min.
50%も出ることがありますが、2回以上の再トレーニングが必要なようです。
---------------------------------
Rのネットワークnnet 20-1-1 :
予想
実績 0 1 誤差
0 0.41 0.09 0.18
1 0.24 0.26 0.48
少し悪いですが、数秒で解決します。
しかし、RNNは、学習区間では、誤差=0となっている。それもカッコいい。実験の様子をブログに書いてみようかな
普通のMLP20-5-1でも、同じ問題に対してこれを出すことができる。
学習時の平均誤差(60.0%) plot =0.116 (11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
バリデーションでの平均誤差(20.0%) section =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差(20.0%) =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
計算時間=0.77分
---------------------------------
Rからネットワークnnet 20-1-1 :
少し悪いですが、数秒で解決します。予想
実績 0 1 誤差
0 0.41 0.09 0.18
1 0.24 0.26 0.48
ここで少し違う理解をしなければならないのは、問題を解決することは難しいことではなく、そのモデルが将来どのような振る舞いをするのかという問題です。素早く、ミスなく学習することができるのです。しかし、新しいデータがあれば、何も手に入らない。Predikshinには非常に優れた特徴があり、新しいデータに対しても学習時と同じエラー率で動作します。だって、再教育しないし、ボッタクリだし。そして、他のネットワークはこの例を非常に速く学習することができますが、新しいデータに対してはずっと悪い結果を示すのです......。IMHO
問題を解決することは難しいことではなく、その後にモデルがどのように振る舞うかが問題なのだと認識しなければなりません。素早く、ミスなく学習することができるのです。そして、新しいデータがあれば、私たちは何も手に入れることができません。Predikshinには非常に優れた特徴があり、新しいデータに対しても学習時と同じエラー率で動作します。だって、再教育しないし、ボッタクリだし。そして、他のネットワークはこの例を非常に速く学習することができますが、新しいデータに対してはずっと悪い結果を示すのです......。IMHO
そこで、新しいデータをご紹介します。
検証時の平均誤差 (20.0%) section =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差(20.0%) site =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
そこで、新しいデータをご紹介します。
検証時の平均誤差(20.0%) plot =0.111 (11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
テスト時の平均誤差 (20.0%) plot =0.129 (12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
議論しているわけではない、そうかもしれない...。:-)