ハイブリッドニューラルネットワーク - ページ 18

 
gumgum >> :

ありがとうございます。

疑問は残るが...。真実はどこにあるのか?

左上隅(RProp)。DE/DW(t-1)*DE/DW<0なのに、なぜDE/DW=0なのか?

このページは、どの記事からの引用ですか?フルタイトルを教えてください。

 
rip >> :

このページは、どの記事から引用されているのでしょうか?フルネームを教えてください。

これらは別の記事からで、上記の著者版でRPROPへのリンクを貼りました。

 
rip писал(а)>>

このページは、どの記事からの引用ですか?フルタイトルを教えてください。

ファイル:
anastasiadis.zip  1211 kb
 

こちら.net 10-22-11-1

Rprop:(476話)

リバース+モメンタム(n=0.01, a=0.9)(136 ep.)。

 
gumgum >> :

こちら.net 10-22-11-1

Rprop:(476話)

逆数+運動量(n=0.01, a=0.9)(136 ep.)。

RPropは非効率的です :)

何が入っていて、何が入っていないのか?

 
rip писал(а)>>

RPropは非効率的です :)

何が入っていて、何が入っていないのか?

いいえ。

10開放→1開放

 

ニューラルネットワークの集団実験を見ているようで楽しいです。何度言えばわかるのでしょうか。ニューラルネットワークは RSIやストキャスティクスなどと同じツールで、唯一違うのは、信じられないほど複雑であるということです。ニューラルネットワークで問題は解決しない...。時間の無駄でしかない...。自分で結論を出していない人は、この発言は無視しましょう。

 
学習アルゴリズムの提案(not eur.)
 
Debugger >> :

ニューラルネットワークの集団実験を見ているようで楽しいです。何度言えばわかるのか、ニューラルネットワークは RSIやストキャスティクスなどと同じツールであり、唯一の違いは、それらが信じられないほど複雑であることです。ニューラルネットワークで問題は解決しない...。時間の無駄でしかない...。まだ結論を出していない人は、この発言は無視してもらって結構です。

大学1年生のコースです。実は私も高校生の時に経験したことがあります。教師だけが重要で、それは本質的にネットワークの出力におけるエラーのタイプである。

 
gumgum >> :
キュー学習アルゴリズム(not evr.)

オールグラディエント - LMA、準ニュートン。いでんし

ヒューリスティック - RPropの全バリエーション、「アニーリング法」等。