ハイブリッドニューラルネットワーク - ページ 11

 
gumgum >> :


これは何のため?

 
joo писал(а)>>

>> どのN?

 

ごめんなさい、ガムシャラさん、でも理由も目的もわからないんです。私が馬鹿なのか、それとも何か隠してることがあるのか。

こんな単純な機能を最適化することに何の意味があるのでしょうか?

 

誤差をスムーズに減らすためには、非常に低い学習率を選択する必要があるが、これでは学習に許容できないほど長い時間がかかってしまう。

ここで私が考えているのは、学習途中で学習速度を機能的に変化させたらどうかということです。

 
joo писал(а)>>

ごめんなさい、ガムシャラさん、でも理由も目的もわからないんです。私が馬鹿なのか、それとも何か隠してることがあるのか。

こんな単純な機能を最適化することに何の意味があるのでしょうか?

最適化する必要はない。

 
Jooさん、リンクありがとうございます!とても興味深いです。
 
gumgum >> :

>> 最適化する必要はない。

グラデーションは、実は便利なものですが、必ずしも問題が解決するわけではありません

 
gumgum >> :

勾配降下法か何かの話ですか? 方法が分からないし、何をするのか分からない。

私はすべての最適化手法を知っているわけではなく、自分が得意とする手法についてのみ話をしています。

 
IlyaA писал(а)>>

これ以上はっきりさせることはできません :-D.お願いだから、最初から他の言葉で表現してくれ。あるいは、もっと言葉を使ったほうがいい。

今日、実験してみようかな...。>> 明日、投稿します

 
gumgum >> :

>> 最適化する必要はない。

あなたの考え方は正しい!エポックメイキングが進むにつれて、学習曲線を減らすためにそうするのです。