市場のエチケット、あるいは地雷原でのマナー - ページ 27

 
:-)
 

符号が予測されるなら100エポックもあれば十分?

もうひとつ、ネットワークが初期化されたばかりのときはNエポックの学習が必要で、ネットワークがすでに学習されているとき、つまりその後の各ステップ(次の予測の後)でもNエポックが必要ですが、1回で足りるのでしょうか。

 

いい質問ですね、パララックス さん。

私は推薦しかできません。そこで、私の実験データによると、2値入力を持つNSの学習エポック数は、隠れ層の2ニューロンと8ニューロンでそれぞれ10〜100回の繰り返しとなります。アナログ入力の場合 - 300〜500。何事も実験的に検証することが大切です。

毎回N個のエポックが必要である。

 

なるほど。

以下は、グリッドのコードです。

код сюда не влез, поэтому в аттаче

私は恥ずかしながら、エポック長計算という素朴な疑問で未だに迷っています。

P = k*w^2/q, k = (2...4); w - シナプスの数, q - 入力の数, である。どうやら、私の頭の中では、何か用語の混乱が起きているようです。何を入力と呼び、何をシナプスと呼ぶか。

もう1回、はっきり言ってください。人生ではいつも、最も単純なことが最も理解しにくいということが起こります -:)

ファイル:
nero2.mqh  7 kb
 

効いているようです〜:)


 

シナプス(w)は、左側の神経細胞が持っているものです。入力(d)は、第1層(隠れ層)の各ニューロンのシナプス数を指す。単一ニューロンNSの場合、シナプスの数は入力の数と同じである。2層からなるNSで、第1層(隠れ)に2ニューロン、第2層(出力)に1ニューロンを含む場合:w=2d+3 。オフセットが +1 のニューロンの入力は正規の入力とみなされる。このようなd=100の ネットワークでは、シナプスの数w=2*100+3=203と なる。最適な学習ベクトルの長さ P=k*w^2/d=2*(2d+3)*(2d+3)/d=(approx.)=2*2d*2=8d=8*100=800 samples.

 

ありがとうございました。

入力をバイナリに直したところ、すべてがうまくいきました。今、テスターでグリッドをいろいろな入力の組み合わせで動かしているところです。なんということでしょう・・・。-:)

 

Guten morgen,

この喜びを分かち合いたいと思います。初めてまともな結果が出たのは、少なくとも過去にNeutronからアドバイスを受けたおかげです...。青いバーが新しいデータで、縦軸はピップス単位です。横軸:10,000EURUSD60。

ロングポジション

ショートポジションはそれほど印象に残っていない。

ニューラルネット、13入力、隠れ層なし。遺伝的アルゴリズム学習

 

Neutron、25のレディネス・カウントは正しかったようだ...。-:)

何か私のネットワークは学習していないようです。100エポック後の重みは、ネットワークが初期化されたときとほぼ同じである。

それに関連して、またまた愚問です。

学習ベクトルは各エポックにおいて同じかどうか?

とにかく、累積補正量と累積二乗補正量の比がすぐにゼロになる傾向があることがわかったのです。そのため、10回目の反復で学習が実質的に停止してしまうのです。

 
YDzh писал(а)>>

ニューラルネット、13入力、隠れ層なし。遺伝的アルゴリズム学習

すごいぞ、YDzh!

私の結果は、もっと控えめなものです。デモに出して、グリッドが何を切るか見てみるといい。