ニューラルネットワーカーに嬉しい、MT4用のクイック&フリーライブラリ - ページ 15

 
lasso >> :

追加します。あるいは、端末のクラッシュの場合。しかし、解決策は見つかったようだ。

質問が違う。ウラジスラフさんは、「仲介者」なしでC++のコードを読んでいるようですね。

グリッド委員会の回答が同一で、ウェイト値が正しく初期化される問題についてコメントをお願いします。(詳細はこちらと 過去ログウェイトに関する 質問はこちら)

コードに目を通した。無作為化がある。注意点:標準C/C++は準乱数発生器を備えているため、rand()を呼び出す前にカーネルを再初期化(seed - srand(int ) - 参照点の移動)することが推奨されます。

int rand( void );
  Return Value 
rand returns a pseudorandom number, as described above. There is no error return.

  Remarks 
The rand function returns a pseudorandom integer in the range 0 to RAND_MAX (32767). 
Use the srand function to seed the pseudorandom- number generator before calling rand.

//------------------------------------------------

Sets a random starting point.


void srand(
   unsigned int seed 
);
  Parameters 
seed
Seed for random- number generation

  Remarks 
The srand function sets the starting point for generating a series of pseudorandom integers in the current thread. 
To reinitialize the generator, use 1 as the seed argument. Any other value for seed sets the generator to a random 
starting point. rand retrieves the pseudorandom numbers that are generated. 
Calling rand before any call to srand generates the same sequence as calling srand with seed passed as 1.

  


 
Henry_White писал(а)>>

入力はグリッドごとに異なりますが、これは重要ではありません。標準的なシグナル、例えば同じRSIで1グリッドでも、ブルートフォースではどの入力でもマイナス値が出ます。

スケール-1, 1の初期化。

プロフィールについて...トレーニングしたネットの結果ファイルのことでしょうか?

いいえ、違うことを話しているのです。 出力について聞いたのですが? どうぞ、こちらで調べてみて ください。 つまり、16個のネットからなる委員会を作り、ランダムな重みで初期化し、各入力に単一の&input_vector[]を置き、結果として出力が同じになるのです! (リンク先ではすべてのログが並べられています)。

ここで問題です!!!

........

訓練されたネットワークショーの結果のファイルは、ここで、または電子メール.... ウェイトの値に興味を持つ また、トレーニングなしで、初期化直後のネットワークのプロファイルがあるとよいでしょう。 >> OK?

 
lasso >> :

いや、話が違う。 出口のことを聞いたんだ!? ここを掘って ください。 例えば、16個のネットからなる委員会があり、ランダムな重みで初期化し、各入力に単一の&input_vector[]を置くと、結果として出力は同じになります!!!! (リンク先ではすべてのログが並べられています)。

ここで問題です!!!

........

訓練されたネットワークショーの結果のファイルは、ここで、または電子メール.... ウェイトの値に興味を持つ また、トレーニングなしで、初期化直後のネットワークのプロファイルがあるとよいでしょう。 OK?

本当にいろいろなことを話していますね ))あなたの悩みはよくわかります。と確認した。そして、そのような効果があることを確認した。

前回の記事で「もう一つの奇遇」と書いたが、これは初期重みのランダム化の問題と、単一の入力ベクトルによる委員会メッシュの演算の同一性とは関係がないという意味である。

私が言いたいのは、冗長学習では(通常の学習でもその効果はあるが)、MSEによれば、正の収束では、ネットワークは絶対最小値を「見つける」どころか、局所最小値さえも見つけられず、平凡に範囲境界までロールしてしまうので、学習アルゴリズムに問題があると言うことだ...。

 

ちなみに、初期ウェイトの初期化を確認しました(作成直後に記録)。すべてがうまくいく。無作為化がある。

しかし、ここでプロフィールの中に不思議な記載がありました。

layer_sizes=31 31 17 2

で、これ。

ann = f2M_create_standard (4, AnnInputs, AnnInputs, AnnInputs / 2 + 1, 1); with AnnInputs=30

隠れ層は、なぜか宣言より1つ多く指定されています。しかし、さらに私を混乱させるのは、「1」が宣言されているのに「2」という出力層のサイズです !!!

 
Henry_White >> :

ちなみに、初期ウェイトの初期化を確認しました(作成直後に記録)。すべてがうまくいく。無作為化がある。

しかし、ここでプロフィールの中に不思議な記載がありました。

layer_sizes=31 31 17 2

で、これ。

ann = f2M_create_standard (4, AnnInputs, AnnInputs, AnnInputs / 2 + 1, 1); AnnInputs=30 の時

なぜか宣言より隠れ層が1つ多い。しかし、さらに私を混乱させるのは、「1」が宣言されているのに「2」という出力層のサイズです !!!

そこではすべてが正しいのです。入力層、2つの隠れ層、出力層の計4層から構成されます。各層のバイアスは1であり、"ユーザー "次元には関与しない。これはFANNのドキュメントから引用しています。


頑張ってください。

 
はい、バイアスを読みました...。でも、グリッドのプロファイルに表示されるとは書いてなかった。もしかしたら、あなたの言うとおり、本当にフィードバックニューロンが追加されたのかもしれません。とにかく、そうすればレイヤーがどんどん増えていくのも論理的に説明がつくのですが......。そして、範囲の境界までメッシュが「浮いてしまう」ことについて、手がかりが見つかったことが、もう嬉しくてたまりませんでした )))
 
Henry_White писал(а)>>

ちなみに、初期ウェイトの初期化を確認しました(作成直後に記録)。すべてがうまくいく。無作為化がある。

はい、ウェイトのランダム化があります。しかし、それでも私は繰り返す。

注目される。ランダム化は-1〜1、ネットワークプロファイルでは、重みは-10.0e--003〜10.0e-003となる

例(12, -7.35577636217311400e-003) (13, 7.639700053449810000e-002)

これでよいのでしょうか?

だから、ネットワークのプロフィールを見せてくださいと言ったのですが......。

 
lasso >> :

そう、音階のランダム性はあるのです。でも、もう一度言います。

注目される。ランダム化は-1から1まで、ネットワークプロファイルでは-10.0e--003から10.0e-003までの重みが設定されています。

例(12, -7.35577636217311400e-003) (13, 7.639700053449810000e-002)

これでよいのでしょうか?

だから、ネットワークのプロフィールを見せてくださいと言ったのですが......。

確認済み - 私の値は異なっており、ほぼ均等に散らばっています。以下は、初期化の1つです。

connections (connected_to_neuron, weight)=(0, -9.94689941406250000e-001) (1, -6.88415527343750000e-001) (2, 6.5136718750000e-001) (3, -8.2067871093750000e-001) (4, 9.83703613281250000e-001) (5, -6.1) (5, -6.1) (6, -6.1) (6, -9.0) (6, -6.1) (6, -6.1) (6, -6.1)8493652343750000e-001) (6, 3.601074218750000e-001) (7, 2.90527343750000e-001) (8, 7.546386718750000e-001) (9, -7.60314941406250000e-001) (10, -7.78137207031250000e-001) (11, 755432128906250000e-001) (12, -61560058593750000e-001) (13, 1.657714843750000e-001) (14, 5.710449218750000e-001) (15, -1.54785156250000e-001) (16, 9.851074218750000e-002) (17, -5.5.26916503906250000e-001) (18, 8.58947753906250000e-001) (19, -5.6652832031250000e-001) (20, 7.3144531250000e-001) (21, -8.80310058593750000e-001) (22, 6.823730468750000e-002) (3, 6.5894775390625001) (24, 8.6652832031250000e-003) (26, 8.63518338593750000e-001) (26, 8.63518338593750000e-002

................................................................................................................................................................................................................................

(42, -6.95373535156250000e-001) (43, -7.0153808593750000e-001) (44, -7.38952636718750000e-001) (45, -3.44238281250000e-002) (46, -1.99401855468750000e-001) (47, 2.731324218750000e-001) (48, 4.53186035156250000e-001) (49, -4.709472656250000e-001) (50, -7.741699218750000e-001) (51, -9.5471191406250000e-001) (52, 8.09509277343750000e-001) (53, 9.92370605468750000e-001) (54, -4.13391113281250000e-001) (55, 6.67297363281250000e-001) (56, 9.59289550781250000e-001) (57, 1.0925292968750000e-001) (58, -3.02551269531250000e-001) (59, -5.29785156250000e-001)(60, 5.8575439453125000000e-001) (61, 7.999877929968750000e-001) (62, -1.11999511718750000e-001) (63, -8.0749511718750000e-001) (64, -7.0749511718750000e-001) (63, -8.0749511718750003) (63, -1.0749511717000003) (63, -1.999877929968750010886230468750000e-001) (65, 8.05236816406250000e-001) (66, 2.9260253906250000e-001) (67, 3.6163333300781250000e-001) (68, -2.99011230468750000e-001) (69, 6.24816893125000000e-001) (70, -7.15759277343750000e-001) (71, -7.5720214843750000e-001) (72, -1.31774902343750000e-001) (73, 5.53894042968750000e-001) (74, -3.3.3.8500976562500000000e-001) (75, -3.3361816406250000e-001) (76, -9.587402343750000e-001) (77, -3.70544433593750000e-001) (78, 8.2690429468750000e-001) (注) 1.


SZZ ライブラリーそのものを組み立てるという真実。f2Mとはやや異なる。とはいえ、f2Mの著者の思想が私は好きで、同じような見解に至った。今日、ジェネレーターの再初期化を追加したところですが、どの程度の影響があるかはわかりません。


 
VladislavVG писал(а)>>

確認済み - 私の値は異なっており、ほぼ均等に散らばっています。以下は、初期化の1つです。

重みは十分すぎるほど正しいのですが、入力ベクトルが同じ場合のネットワークの出力値はどうなっているのでしょうか?

 
lasso >> :

重みは正しいが、同じ入力ベクトルに対するネットワークの出力はどうなっているのか?

最適化テスターを走らせながら、まだすべてを完全にテストしているわけではありません。邪魔をしないように

dll、mqh、EAを添付することができます - オリジナルのものとはいくつか違いがあるので、もしかしたら動作させるのが早いかもしれません。