"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 35

 
コンストラクタをスケッチして、それをどう呼ぶかは構図から判断する...。
 
ミシェック
メタクォートのロゴと共鳴する(親しみやすい)のが理想的です。

MetaPerceptive ;)(パーシペントパーセプション)

ロゴのアイデアもあります。)-- 花の匂いを嗅ぐロボットの名前は、Perceptiveという言葉の持つ曖昧さを利用したものです。ロボットは一般的でない方がいい :)

________

シンプルでセンスの良いNeural、またはTheNeural :)

________

Neural Nets eXtension (NNX)。

________

ニューラルネットXpert (NNXpert) :)))

________

ニューラルネットツールキット(NNToolkit)

________

ニューラルネットツール(NNTools)

 
TheXpert です。

Neural Nets eXtension(NNX)には大賛成です。

特にNeural NetseXtension (NNX)のこの部分です。 私たちはそれを良い意味で裏切ってしまうからです。

NeuralUniversal eXtension (NUX )ほぼ LINUXに 変換した方がいいのでは?

 
ああ、後で投票するか、Metakvotsに選択肢を投げるか、どちらかしかない。
 
gpwr
私への質問であれば、文献上、私が説明したネットワークは階層型ニューラルネットワークと 呼ばれています。

EMNIP、コグニトロンはそれに近いものを表現しています。

続編を待っています :)

 
TheXpert です。
そうですね、このあと投票を行うか、メタクボタムに選択肢を投げるか、どちらかにすべきですね。

なぜ急ぐかというと、原則的には他のニューロパックとの交換や最終的なレディメイドのアドバイザーの生成の可能性も製品名で考慮すべきです。

製品はNN以上です。その過程で、何か別の有用なものに発展するかもしれません。

 
ミシェック

製品はNNより大きい。

了解しました。しかし、具体的にNNに結びついたより正確に結ばれるようになる。

AWVREMGVTWNN "のようなものが出てきそうで怖いです :)要は本質を伝えればいいのであって、ニュアンスはそれほど重要ではありません。

 

に関する情報

-共役勾配降下法

-BFGS

 

共役勾配法(wiki)

-BFGS(ウィキ)


Метод сопряжённых градиентов — Википедия
  • ru.wikipedia.org
Метод сопряженных градиентов — метод нахождения локального минимума функции на основе информации о её значениях и её градиенте. В случае квадратичной функции в минимум находится за шагов. Определим терминологию: Векторы называются сопряжёнными, если: Теорема (о существовании). Существует хотя бы одна система сопряжённых направлений для...
 

講義3.HMAXモデル

視覚情報の生物学的変換の詳細を理解するために、一般的な物体認識モデルHMAX("Hierarchical Model and X")について見てみよう。このモデルは、1990年代後半にトマソ・ポッジョを中心とするMITの研究者によって生み出されたものである。モデルの説明とコードはこちらでご覧いただけます。

http://riesenhuberlab.neuro.georgetown.edu/hmax.html

HMAXは、若干の修正を加えることで、従来のニューラルネットワークよりもはるかに優れた顔認識能力を発揮する。この写真は、このモデルをよく表しています。

モデルの第1層(S1)は、4種類の傾き(垂直、水平、45度の傾き、135度の傾き-赤、黄、緑、青で表示)の短い直線部分を、それぞれ16個のサイズでフィルタリングしたもので、入力画像の各セクションが4×16個のフィルタによって「カバー」されるようになっています。各フィルタは、画像のある領域の画素にこのニューロンの入力重みを乗じたものを出力とするニューロンである。これらの入力重みは、ガボール関数によって記述される。このフィルター(ウェイト)の例を紹介します。

モデルの第2層(C1)は、複雑なニューロンで構成されています。各複合ニューロンは、画像の異なる部分と隣接する2次元の同じ傾きの部分をフィルタリングするS1ニューロンの最大活性化(出力)を選択する。したがって、この複合ニューロンは、以下に説明するように、素片の位置や大きさに対して不変性を持っている。

モデルの第3層(S2)のニューロンは、C1ニューロンから入力を受ける。その結果、より複雑な形状のフィルター(P1、P2、...と表記)が得られ、これらは素片で構成されている。各図形に対して、大きさの異なる4組のフィルターを用意しました。各セット内のフィルターは、空間的な位置が異なります(画像の異なる部分を「見る」)。

モデルの第4層(C2)のニューロンは、同じ図形をフィルタリングしているが、大きさや空間配置が異なるS2ニューロンの最大活性化を選択する。その結果、より複雑な形状のフィルターを、位置やサイズに左右されずに作ることができるようになりました。

参考文献

T.Serre, "Robust object recognition with cortex-like mechanisms," IEEE Trans.on Pattern, Aug 2006.

http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf