市場のエチケット、あるいは地雷原でのマナー - ページ 27 1...202122232425262728293031323334...104 新しいコメント paralocus 2009.05.19 09:14 #261 :-) paralocus 2009.05.19 09:42 #262 符号が予測されるなら100エポックもあれば十分? もうひとつ、ネットワークが初期化されたばかりのときはNエポックの学習が必要で、ネットワークがすでに学習されているとき、つまりその後の各ステップ(次の予測の後)でもNエポックが必要ですが、1回で足りるのでしょうか。 Neutron 2009.05.19 10:21 #263 いい質問ですね、パララックス さん。 私は推薦しかできません。そこで、私の実験データによると、2値入力を持つNSの学習エポック数は、隠れ層の2ニューロンと8ニューロンでそれぞれ10〜100回の繰り返しとなります。アナログ入力の場合 - 300〜500。何事も実験的に検証することが大切です。 毎回N個のエポックが必要である。 paralocus 2009.05.19 10:43 #264 なるほど。 以下は、グリッドのコードです。 код сюда не влез, поэтому в аттаче 私は恥ずかしながら、エポック長計算という素朴な疑問で未だに迷っています。 P = k*w^2/q, k = (2...4); w - シナプスの数, q - 入力の数, である。どうやら、私の頭の中では、何か用語の混乱が起きているようです。何を入力と呼び、何をシナプスと呼ぶか。 もう1回、はっきり言ってください。人生ではいつも、最も単純なことが最も理解しにくいということが起こります -:) ファイル: nero2.mqh 7 kb paralocus 2009.05.19 13:22 #265 効いているようです〜:) Neutron 2009.05.19 13:38 #266 シナプス(w)は、左側の神経細胞が持っているものです。入力(d)は、第1層(隠れ層)の各ニューロンのシナプス数を指す。単一ニューロンNSの場合、シナプスの数は入力の数と同じである。2層からなるNSで、第1層(隠れ)に2ニューロン、第2層(出力)に1ニューロンを含む場合:w=2d+3 。オフセットが +1 のニューロンの入力は正規の入力とみなされる。このようなd=100の ネットワークでは、シナプスの数w=2*100+3=203と なる。最適な学習ベクトルの長さ P=k*w^2/d=2*(2d+3)*(2d+3)/d=(approx.)=2*2d*2=8d=8*100=800 samples. paralocus 2009.05.19 14:20 #267 ありがとうございました。 入力をバイナリに直したところ、すべてがうまくいきました。今、テスターでグリッドをいろいろな入力の組み合わせで動かしているところです。なんということでしょう・・・。-:) 削除済み 2009.05.20 06:27 #268 Guten morgen, この喜びを分かち合いたいと思います。初めてまともな結果が出たのは、少なくとも過去にNeutronからアドバイスを受けたおかげです...。青いバーが新しいデータで、縦軸はピップス単位です。横軸:10,000EURUSD60。 ロングポジション ショートポジションはそれほど印象に残っていない。 ニューラルネット、13入力、隠れ層なし。遺伝的アルゴリズム学習 paralocus 2009.05.20 09:00 #269 Neutron、25のレディネス・カウントは正しかったようだ...。-:) 何か私のネットワークは学習していないようです。100エポック後の重みは、ネットワークが初期化されたときとほぼ同じである。 それに関連して、またまた愚問です。 学習ベクトルは各エポックにおいて同じかどうか? とにかく、累積補正量と累積二乗補正量の比がすぐにゼロになる傾向があることがわかったのです。そのため、10回目の反復で学習が実質的に停止してしまうのです。 Neutron 2009.05.20 10:21 #270 YDzh писал(а)>> ニューラルネット、13入力、隠れ層なし。遺伝的アルゴリズム学習 すごいぞ、YDzh! 私の結果は、もっと控えめなものです。デモに出して、グリッドが何を切るか見てみるといい。 1...202122232425262728293031323334...104 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
符号が予測されるなら100エポックもあれば十分?
もうひとつ、ネットワークが初期化されたばかりのときはNエポックの学習が必要で、ネットワークがすでに学習されているとき、つまりその後の各ステップ(次の予測の後)でもNエポックが必要ですが、1回で足りるのでしょうか。
いい質問ですね、パララックス さん。
私は推薦しかできません。そこで、私の実験データによると、2値入力を持つNSの学習エポック数は、隠れ層の2ニューロンと8ニューロンでそれぞれ10〜100回の繰り返しとなります。アナログ入力の場合 - 300〜500。何事も実験的に検証することが大切です。
毎回N個のエポックが必要である。
なるほど。
以下は、グリッドのコードです。
код сюда не влез, поэтому в аттаче
私は恥ずかしながら、エポック長計算という素朴な疑問で未だに迷っています。
P = k*w^2/q, k = (2...4); w - シナプスの数, q - 入力の数, である。どうやら、私の頭の中では、何か用語の混乱が起きているようです。何を入力と呼び、何をシナプスと呼ぶか。
もう1回、はっきり言ってください。人生ではいつも、最も単純なことが最も理解しにくいということが起こります -:)
効いているようです〜:)
シナプス(w)は、左側の神経細胞が持っているものです。入力(d)は、第1層(隠れ層)の各ニューロンのシナプス数を指す。単一ニューロンNSの場合、シナプスの数は入力の数と同じである。2層からなるNSで、第1層(隠れ)に2ニューロン、第2層(出力)に1ニューロンを含む場合:w=2d+3 。オフセットが +1 のニューロンの入力は正規の入力とみなされる。このようなd=100の ネットワークでは、シナプスの数w=2*100+3=203と なる。最適な学習ベクトルの長さ P=k*w^2/d=2*(2d+3)*(2d+3)/d=(approx.)=2*2d*2=8d=8*100=800 samples.
ありがとうございました。
入力をバイナリに直したところ、すべてがうまくいきました。今、テスターでグリッドをいろいろな入力の組み合わせで動かしているところです。なんということでしょう・・・。-:)
Guten morgen,
この喜びを分かち合いたいと思います。初めてまともな結果が出たのは、少なくとも過去にNeutronからアドバイスを受けたおかげです...。青いバーが新しいデータで、縦軸はピップス単位です。横軸:10,000EURUSD60。
ロングポジション
ショートポジションはそれほど印象に残っていない。
ニューラルネット、13入力、隠れ層なし。遺伝的アルゴリズム学習
Neutron、25のレディネス・カウントは正しかったようだ...。-:)
何か私のネットワークは学習していないようです。100エポック後の重みは、ネットワークが初期化されたときとほぼ同じである。
それに関連して、またまた愚問です。
学習ベクトルは各エポックにおいて同じかどうか?
とにかく、累積補正量と累積二乗補正量の比がすぐにゼロになる傾向があることがわかったのです。そのため、10回目の反復で学習が実質的に停止してしまうのです。
ニューラルネット、13入力、隠れ層なし。遺伝的アルゴリズム学習
すごいぞ、YDzh!
私の結果は、もっと控えめなものです。デモに出して、グリッドが何を切るか見てみるといい。