ハイブリッドニューラルネットワーク - ページ 12

 
dentraf писал(а)>>

あなたの考え方は正しい!エポックメイキングが進むにつれて、学習曲線を減らすためにそうしているのです。

それは知らなかった。>> ありがとうございました。

 
gumgum >> :


理論的には、このアイデアは生き続けることができます。ただ、私たちの議論になじまないので、長い間、困っていたんです。浮き球を使うときの狙いは何ですか?
 
joo >> :

勾配降下法か何かの話ですか? 方法も分からないし、何をするのかも分からない。

私は、すべての最適化手法を知っているわけではありません。

私はそうあなたがアルゴリズムとコードをレイアウトしたくないことを、理解できますか? あなたはあなたのGAで私のコードのパラメータを最適化するために求めることができますか?

 
dentraf >> :

あなたの考え方は正しい!エポック数が増えるにつれて、学習率を下げていくのです。

ええ、見逃しました。wikiを少し読みました。たしかに、より詳細な検索をするためには、スピードを落とさなければなりませんね。というのが真理であることがわかった。

 
joo писал(а)>>

ええ、見逃しました。wikiを少し読みました。確かに、より詳細な検索を行うためには、速度を落とす必要があります。というのが真理であることがわかった。

どの本でも見たことがない。

 
gumgum >> :

どの本でも見たことがない。


ヘイキンを読む。彼は自分が何を書いているのか分かっているのです。

 
gumgum >> :

どの本でも見たことがない。

>> スピードを出す瞬間を追加することができます。

 
IlyaA >> :


ヘイキンを読む。彼は自分が何を書いているのか分かっているのです。

電子書籍にもあるのでしょうか?

 
IlyaA >> :
というのも、なんとなく話に合わないので...。

確かに、特定のケースにおける特定の手法に過ぎない。今回の場合、まずffsの総実行回数をいかに減らすかを議論しました。 このパラメータは、ある最適化アルゴリズムと別の最適化アルゴリズムを選択する際の主要なものです。

デントラフは >> を書きました。
アルゴリズムやコードを公開したくないということですが、私のコードのパラメータをあなたのGAで最適化することをお願いしてもいいですか?

5万ドルで買い取ると言ったのを忘れたのか?:))とはいえ、最近は開発したものを売りたいという気持ちが全くなくなってしまいました。

最適化については...残念ながら実験する時間がありません、申し訳ありません。

本書は電子版で、重さは120mbです。 :( torrents.ruを見てください、面白いものがたくさんありますよ。

 

dentraf писал(а) >>
.......... .. оптимизировать параметры моего кода вашим ГА?

遺伝的アルゴリズムによるパラメーターの最適化......小池 克明うーん、自分もこんな風に最適化してみようかな...。