市場のエチケット、あるいは地雷原でのマナー - ページ 25 1...181920212223242526272829303132...104 新しいコメント Neutron 2009.05.16 10:26 #241 registred писал(а)>> 皆さん、浅い局地的な低気圧や湾曲した初期重心に飛び込む場合、どのように対処しているか教えてください。最初のうちはトレーニングに影響しないが、後半になると結果に大きく影響するようになるのは理解できる。 各ステップでネットワークを再トレーニングすることをルールにしています。もちろん、この設定では、ネットワークは時々「場違い」になることがありますが、次のステップでは、必要な場所にあるのです。私の考えは、ネットワークが「間違った」ことを学習する確率は1より明らかに小さく、一般に再トレーニングの大きなサンプルでは、「おかしな子」の寄与は最小である、という事実に基づいています。 paralocus さんが書き込みました >>。別のエポックの貢献度倍率を下げる方法がちょっとわからないのですが...。トレーニングが終わる頃には出力層の重みがとても小さくなっていて、逆に隠れ層の重みが大きくなっているんです。 アラート:W2 [0] = -0.0414 W2 [1] = 0.0188 W2 [2] = -0.0539 アラート: W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5]=-37.5899 ここでは、自分で考えることが必要です。予想される値上がりの符号(±1)だけを予測する。それは、取引の特異性(数記事上の「取引の基本方程式」を参照)と、振幅と符号を同時に予測しようとすると破滅的に難しくなること(TCアーキテクチャと学習エポックの数が増えている)とに関係しています。ここでは、家庭用PCパワーでは不十分で、いちいちGridを鍛え直さなくとも、十分な効果が得られるでしょうそこで従来は、BPの絶対値を予測する場合、各エポックでの学習誤差がある程度以下になるように制御していた。このプロセスは収束しないかもしれない。グリッドは無限ループに陥っており、昏睡状態から抜け出すためのメカニズムが必要である。実験では、学習誤差の減少率をコントロールし、条件を満たした時点ですべての重みを再変換する、つまり実質的に学習をやり直すという方法をとりました。その際、学習に必要なエポック数の目安がわかり、各エポックの重み(各重みの補正前の係数)が1-j/Nの法則で減少していくことがわかりました。予測振幅を捨ててからは、ネットワークの学習が早く効率的になったので、学習誤差を監視せずに一定のエポック数の学習を導入することが可能になったのです。 また、予測から予測へ移行する際、エポック数を減らすために、ネットワークの重みの値をランダム化せずにそのままにしています。また、ある重さが無限に増えたり、ゼロになったりする「スティッキング」の効果もありました。私はこの方法で対処してきました。新しい予測をするとき、すべての重みにth()演算子を用いて影響を与えました。効率的に仕事ができました。 paralocus 2009.05.16 10:48 #242 Neutron >> : ...学習誤差を監視せず、一定数の学習エポックを行う。 >> 問題が解決されました paralocus 2009.05.16 10:55 #243 to中性子 今、2層分をすべてコンパクトに書き換えている最中です。すべて2つか3つの関数の行列演算に還元したい。完成したら、すぐに掲載します。 同時に振幅の予測も「切り出す」。実際、この看板は十分すぎるほどです。 paralocus 2009.05.16 11:10 #244 Neutron >> : ここは自分で考えなければならないところです。 振幅誤差の計算から符号誤差の計算をどうするか考えるということですか? ここでってこと? d_2_out = test - out; // Ошибка на выходе сетки Neutron 2009.05.16 12:20 #245 いや、一般論として言ったのです。明らかに自分の道を行く...。 paralocus 2009.05.16 12:30 #246 いくつか質問があるのですが、ここで無用な煽りを受けないためにも、プライベートメッセージでお聞きしたいと思います。 素人じゃないんだろうけど...。 よろしいですか? Neutron 2009.05.16 13:07 #247 頼むぞ! paralocus 2009.05.16 15:07 #248 Neutron >> : 頼むぞ! Neutron 2009.05.17 04:24 #249 回答しました。 削除済み 2009.05.17 07:43 #250 Neutron >> : 各ステップでネットワークを再トレーニングすることをルールにしています。もちろん、この設定では、ネットワークが「間違った場所にある」こともありますが、次のステップでは、すでに正しい場所にあるのです。このアイデアは、ネットワークが「間違って」学習される確率は1よりはるかに小さいという事実に基づいています。したがって、全体として、再トレーニングの大きなサンプルでは、「おかしな子供たち」の貢献はわずかです。 ステップごとに再トレーニングを行う」という意味がよくわからないのですが? 1...181920212223242526272829303132...104 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
皆さん、浅い局地的な低気圧や湾曲した初期重心に飛び込む場合、どのように対処しているか教えてください。最初のうちはトレーニングに影響しないが、後半になると結果に大きく影響するようになるのは理解できる。
各ステップでネットワークを再トレーニングすることをルールにしています。もちろん、この設定では、ネットワークは時々「場違い」になることがありますが、次のステップでは、必要な場所にあるのです。私の考えは、ネットワークが「間違った」ことを学習する確率は1より明らかに小さく、一般に再トレーニングの大きなサンプルでは、「おかしな子」の寄与は最小である、という事実に基づいています。
別のエポックの貢献度倍率を下げる方法がちょっとわからないのですが...。トレーニングが終わる頃には出力層の重みがとても小さくなっていて、逆に隠れ層の重みが大きくなっているんです。
アラート:W2 [0] = -0.0414 W2 [1] = 0.0188 W2 [2] = -0.0539
アラート: W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5]=-37.5899ここでは、自分で考えることが必要です。予想される値上がりの符号(±1)だけを予測する。それは、取引の特異性(数記事上の「取引の基本方程式」を参照)と、振幅と符号を同時に予測しようとすると破滅的に難しくなること(TCアーキテクチャと学習エポックの数が増えている)とに関係しています。ここでは、家庭用PCパワーでは不十分で、いちいちGridを鍛え直さなくとも、十分な効果が得られるでしょうそこで従来は、BPの絶対値を予測する場合、各エポックでの学習誤差がある程度以下になるように制御していた。このプロセスは収束しないかもしれない。グリッドは無限ループに陥っており、昏睡状態から抜け出すためのメカニズムが必要である。実験では、学習誤差の減少率をコントロールし、条件を満たした時点ですべての重みを再変換する、つまり実質的に学習をやり直すという方法をとりました。その際、学習に必要なエポック数の目安がわかり、各エポックの重み(各重みの補正前の係数)が1-j/Nの法則で減少していくことがわかりました。予測振幅を捨ててからは、ネットワークの学習が早く効率的になったので、学習誤差を監視せずに一定のエポック数の学習を導入することが可能になったのです。
また、予測から予測へ移行する際、エポック数を減らすために、ネットワークの重みの値をランダム化せずにそのままにしています。また、ある重さが無限に増えたり、ゼロになったりする「スティッキング」の効果もありました。私はこの方法で対処してきました。新しい予測をするとき、すべての重みにth()演算子を用いて影響を与えました。効率的に仕事ができました。
...学習誤差を監視せず、一定数の学習エポックを行う。
>> 問題が解決されました
to中性子
今、2層分をすべてコンパクトに書き換えている最中です。すべて2つか3つの関数の行列演算に還元したい。完成したら、すぐに掲載します。
同時に振幅の予測も「切り出す」。実際、この看板は十分すぎるほどです。
ここは自分で考えなければならないところです。
振幅誤差の計算から符号誤差の計算をどうするか考えるということですか?
ここでってこと?
いや、一般論として言ったのです。明らかに自分の道を行く...。
いくつか質問があるのですが、ここで無用な煽りを受けないためにも、プライベートメッセージでお聞きしたいと思います。
素人じゃないんだろうけど...。
よろしいですか?
頼むぞ!
各ステップでネットワークを再トレーニングすることをルールにしています。もちろん、この設定では、ネットワークが「間違った場所にある」こともありますが、次のステップでは、すでに正しい場所にあるのです。このアイデアは、ネットワークが「間違って」学習される確率は1よりはるかに小さいという事実に基づいています。したがって、全体として、再トレーニングの大きなサンプルでは、「おかしな子供たち」の貢献はわずかです。
ステップごとに再トレーニングを行う」という意味がよくわからないのですが?