ハイブリッドニューラルネットワーク - ページ 22 1...1516171819202122 新しいコメント RIP 2009.11.02 15:33 #211 gumgum >> : c-meansアルゴリズムの詳細な説明をお持ちの方はいらっしゃいませんか? WiKi、 k-means、c-means、google ... 何に使いたいですか? gumgum 2009.11.02 17:37 #212 rip >> : WiKi、 k-means、c-means、google ... 何に使いたいですか? >> ハイブリッドでパクる。 ところで、係数グラデーションは試されましたか?ディビジョン・ゼロアウトがあるんです! gumgum 2009.11.04 15:43 #213 すでに誰かが書いているかもしれないし、書いていないかもしれない...。 いくつかのアルゴリズムを試した結果、十分なエラーレベルに達するには >>in[N/2]*in(number of training examples)の問題があることがわかりました。重みを(MathRand()-MathRand())/32767で初期化しました。 DoubleTostrとStrToDoubleによる重みの初期化で、ゴールに到達する結果が+になる! double ranD(int rsign) { string ran="0."; for(int z=1; z<=25; z++) { ran= ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0); } double randou=StrToDouble( ran); if( rsign==1) { double dip=(MathRand()-MathRand())/32767.0; if( dip<0){ randou=(-1)* randou;} if( dip==0){ randou=0;} } return( randou); } gumgum 2009.11.08 18:50 #214 この話題はもうクモの巣が生い茂ってる...。 こんなことに気づきました...x-n1-n2-yのニューラルネットワークが あるとする。ORO grad.を使ってバッチモードでトレーニングしてみましょう。<eを少し変えてみました。 学習集合Sから新しい集合MG=Sを作り、交差M(n)&M(n+1)=0となるようなK個の(有限の)部分集合Mに分割する。 MG集合の全ての学習部分集合M1,M2,M3,...,M(n),M(n+1)を無視してM(emin)を選び、M(emin)<eであればエラー訂正停止、なければまずM(emin)/M(emin)-1が必要である。 これが一番の学習法です。 RIP 2009.11.09 11:43 #215 gumgum >> : この話題はもうクモの巣が生い茂ってる...。 そんなことに気がつきました...。ニューラルネットワークx-n1-n2-yがあるとする。バッチモードでORO gradでトレーニングしてみましょう。<eを少し変えてみました。 学習集合Sから新しい集合MG=Sを作り、M(n)&M(n+1)!=0と交差するK個の(有限)部分集合Mに分割する。 MG集合の学習部分集合M1,M2,M3,...,M(n),M(n+1)を全て飛ばしてM(Emin)を選び、M(Emin)<eであればエラー訂正停止、なければやはりM(Emin)/M(Emin)-1が必要である。 まあ、この方がよっぽど勉強になるんですけどね。 テストサブセットは何を示しているのでしょうか?エラーの動作はどうなっていますか? この方法は、文献上ではモディファイドバッチモードとして見られることがあります。 gumgum 2009.11.11 20:05 #216 同志よ。確率的学習アルゴリズムを実装された方がいらっしゃいましたら。感想や体験談などをシェアしてください(ソースコードは不要です)。 P.S. よろしくお願いします。 1...1516171819202122 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
c-meansアルゴリズムの詳細な説明をお持ちの方はいらっしゃいませんか?
WiKi、 k-means、c-means、google ...
何に使いたいですか?
WiKi、 k-means、c-means、google ...
何に使いたいですか?
>> ハイブリッドでパクる。
ところで、係数グラデーションは試されましたか?ディビジョン・ゼロアウトがあるんです!
すでに誰かが書いているかもしれないし、書いていないかもしれない...。
いくつかのアルゴリズムを試した結果、十分なエラーレベルに達するには >>in[N/2]*in(number of training examples)の問題があることがわかりました。重みを(MathRand()-MathRand())/32767で初期化しました。
DoubleTostrとStrToDoubleによる重みの初期化で、ゴールに到達する結果が+になる!
この話題はもうクモの巣が生い茂ってる...。
こんなことに気づきました...x-n1-n2-yのニューラルネットワークが あるとする。ORO grad.を使ってバッチモードでトレーニングしてみましょう。<eを少し変えてみました。
学習集合Sから新しい集合MG=Sを作り、交差M(n)&M(n+1)=0となるようなK個の(有限の)部分集合Mに分割する。
MG集合の全ての学習部分集合M1,M2,M3,...,M(n),M(n+1)を無視してM(emin)を選び、M(emin)<eであればエラー訂正停止、なければまずM(emin)/M(emin)-1が必要である。
これが一番の学習法です。
この話題はもうクモの巣が生い茂ってる...。
そんなことに気がつきました...。ニューラルネットワークx-n1-n2-yがあるとする。バッチモードでORO gradでトレーニングしてみましょう。<eを少し変えてみました。
学習集合Sから新しい集合MG=Sを作り、M(n)&M(n+1)!=0と交差するK個の(有限)部分集合Mに分割する。
MG集合の学習部分集合M1,M2,M3,...,M(n),M(n+1)を全て飛ばしてM(Emin)を選び、M(Emin)<eであればエラー訂正停止、なければやはりM(Emin)/M(Emin)-1が必要である。
まあ、この方がよっぽど勉強になるんですけどね。
テストサブセットは何を示しているのでしょうか?エラーの動作はどうなっていますか?
この方法は、文献上ではモディファイドバッチモードとして見られることがあります。
同志よ。確率的学習アルゴリズムを実装された方がいらっしゃいましたら。感想や体験談などをシェアしてください(ソースコードは不要です)。
P.S. よろしくお願いします。