ハイブリッドニューラルネットワーク - ページ 22

 
gumgum >> :
c-meansアルゴリズムの詳細な説明をお持ちの方はいらっしゃいませんか?

WiKi k-means、c-means、google ...

何に使いたいですか?

 
rip >> :

WiKi k-means、c-means、google ...

何に使いたいですか?

>> ハイブリッドでパクる。


ところで、係数グラデーションは試されましたか?ディビジョン・ゼロアウトがあるんです!

 

すでに誰かが書いているかもしれないし、書いていないかもしれない...。


いくつかのアルゴリズムを試した結果、十分なエラーレベルに達するには >>in[N/2]*in(number of training examples)の問題があることがわかりました。重みを(MathRand()-MathRand())/32767で初期化しました。


DoubleTostrとStrToDoubleによる重みの初期化で、ゴールに到達する結果が+になる!


double ranD(int rsign)
{
string ran="0.";
for(int z=1; z<=25; z++)
{
ran= ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0);
}
double randou=StrToDouble( ran);
if( rsign==1)
   {
   double dip=(MathRand()-MathRand())/32767.0;
   if( dip<0){ randou=(-1)* randou;}
   if( dip==0){ randou=0;}
   }
return( randou);
}


 

この話題はもうクモの巣が生い茂ってる...。


こんなことに気づきました...x-n1-n2-yのニューラルネットワークが あるとする。ORO grad.を使ってバッチモードでトレーニングしてみましょう。<eを少し変えてみました。


学習集合Sから新しい集合MG=Sを作り、交差M(n)&M(n+1)=0となるようなK個の(有限の)部分集合Mに分割する。

MG集合の全ての学習部分集合M1,M2,M3,...,M(n),M(n+1)を無視してM(emin)を選び、M(emin)<eであればエラー訂正停止、なければまずM(emin)/M(emin)-1が必要である。


これが一番の学習法です。

 
gumgum >> :

この話題はもうクモの巣が生い茂ってる...。


そんなことに気がつきました...。ニューラルネットワークx-n1-n2-yがあるとする。バッチモードでORO gradでトレーニングしてみましょう。<eを少し変えてみました。


学習集合Sから新しい集合MG=Sを作り、M(n)&M(n+1)!=0と交差するK個の(有限)部分集合Mに分割する。

MG集合の学習部分集合M1,M2,M3,...,M(n),M(n+1)を全て飛ばしてM(Emin)を選び、M(Emin)<eであればエラー訂正停止、なければやはりM(Emin)/M(Emin)-1が必要である。


まあ、この方がよっぽど勉強になるんですけどね。


テストサブセットは何を示しているのでしょうか?エラーの動作はどうなっていますか?

この方法は、文献上ではモディファイドバッチモードとして見られることがあります。

 

同志よ。確率的学習アルゴリズムを実装された方がいらっしゃいましたら。感想や体験談などをシェアしてください(ソースコードは不要です)。

P.S. よろしくお願いします。