Метод сопряженных градиентов — метод нахождения локального минимума функции на основе информации о её значениях и её градиенте. В случае квадратичной функции в минимум находится за шагов. Определим терминологию: Векторы называются сопряжёнными, если: Теорема (о существовании). Существует хотя бы одна система сопряжённых направлений для...
視覚情報の生物学的変換の詳細を理解するために、一般的な物体認識モデルHMAX("Hierarchical Model and X")について見てみよう。このモデルは、1990年代後半にトマソ・ポッジョを中心とするMITの研究者によって生み出されたものである。モデルの説明とコードはこちらでご覧いただけます。
メタクォートのロゴと共鳴する(親しみやすい)のが理想的です。
MetaPerceptive ;)(パーシペントパーセプション)
ロゴのアイデアもあります。)-- 花の匂いを嗅ぐロボットの名前は、Perceptiveという言葉の持つ曖昧さを利用したものです。ロボットは一般的でない方がいい :)
________
シンプルでセンスの良いNeural、またはTheNeural :)
________
Neural Nets eXtension (NNX)。
________
ニューラルネットXpert (NNXpert) :)))
________
ニューラルネットツールキット(NNToolkit)
________
ニューラルネットツール(NNTools)
Neural Nets eXtension(NNX)には大賛成です。
特にNeural NetseXtension (NNX)のこの部分です。 私たちはそれを良い意味で裏切ってしまうからです。
NeuralUniversal eXtension (NUX )ほぼ LINUXに 変換した方がいいのでは?
私への質問であれば、文献上、私が説明したネットワークは階層型ニューラルネットワークと 呼ばれています。
EMNIP、コグニトロンはそれに近いものを表現しています。
続編を待っています :)
そうですね、このあと投票を行うか、メタクボタムに選択肢を投げるか、どちらかにすべきですね。
なぜ急ぐかというと、原則的には他のニューロパックとの交換や最終的なレディメイドのアドバイザーの生成の可能性も製品名で考慮すべきです。
製品はNN以上です。その過程で、何か別の有用なものに発展するかもしれません。
製品はNNより大きい。
了解しました。しかし、具体的にNNに結びついたより正確に結ばれるようになる。
AWVREMGVTWNN "のようなものが出てきそうで怖いです :)要は本質を伝えればいいのであって、ニュアンスはそれほど重要ではありません。
に関する情報
-共役勾配降下法
-BFGS
共役勾配法(wiki)
-BFGS(ウィキ)
講義3.HMAXモデル
視覚情報の生物学的変換の詳細を理解するために、一般的な物体認識モデルHMAX("Hierarchical Model and X")について見てみよう。このモデルは、1990年代後半にトマソ・ポッジョを中心とするMITの研究者によって生み出されたものである。モデルの説明とコードはこちらでご覧いただけます。
http://riesenhuberlab.neuro.georgetown.edu/hmax.html
HMAXは、若干の修正を加えることで、従来のニューラルネットワークよりもはるかに優れた顔認識能力を発揮する。この写真は、このモデルをよく表しています。
モデルの第1層(S1)は、4種類の傾き(垂直、水平、45度の傾き、135度の傾き-赤、黄、緑、青で表示)の短い直線部分を、それぞれ16個のサイズでフィルタリングしたもので、入力画像の各セクションが4×16個のフィルタによって「カバー」されるようになっています。各フィルタは、画像のある領域の画素にこのニューロンの入力重みを乗じたものを出力とするニューロンである。これらの入力重みは、ガボール関数によって記述される。このフィルター(ウェイト)の例を紹介します。
モデルの第2層(C1)は、複雑なニューロンで構成されています。各複合ニューロンは、画像の異なる部分と隣接する2次元の同じ傾きの部分をフィルタリングするS1ニューロンの最大活性化(出力)を選択する。したがって、この複合ニューロンは、以下に説明するように、素片の位置や大きさに対して不変性を持っている。
モデルの第3層(S2)のニューロンは、C1ニューロンから入力を受ける。その結果、より複雑な形状のフィルター(P1、P2、...と表記)が得られ、これらは素片で構成されている。各図形に対して、大きさの異なる4組のフィルターを用意しました。各セット内のフィルターは、空間的な位置が異なります(画像の異なる部分を「見る」)。
モデルの第4層(C2)のニューロンは、同じ図形をフィルタリングしているが、大きさや空間配置が異なるS2ニューロンの最大活性化を選択する。その結果、より複雑な形状のフィルターを、位置やサイズに左右されずに作ることができるようになりました。
参考文献
T.Serre, "Robust object recognition with cortex-like mechanisms," IEEE Trans.on Pattern, Aug 2006.
http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf