ステレオ・ニューロ・ネット

 

アビシカでは、きちんと目を細めて涅槃の境地に落ちると、3層2エントリーの非線形グリッドが、入力データ(価格系列)の中に隠れたパターンを見つけようとシャベルを走らせる様子が見えてくる。そして、実際にそれを見つけることができた。

追伸:これは本気にしない方がいいです。

ファイル:
3d_1.zip  1295 kb
 
Neutron >> :

アビシカでは、きちんと目を細めて涅槃の境地に落ちると、3層2エントリーの非線形グリッドが、入力データ(価格系列)の中に隠れたパターンを見つけようとシャベルを走らせる様子が見えてくる。そして、実際にそれを見つけることができた。

追伸:真に受けない方がいいです。

そして、以前は、今思い出すと、オクチャブル映画館の小さなホールで、特別な眼鏡が配られていました......。

 
これって、どこかのニューロパッケージ会社のアニメの続きか?
 
いや、あれは私の漫画だ。自分で発明したというか、彼女(NS)が2つの入力信号をBuyとSellに分ける方法を考え出したんです。
 
Neutron >> :
いや、あれは私の漫画だ。自分で発明したというか、2つの入力信号をBuyとSellに分ける方法を(NSが)発明したんです。

>> SOMのような入力定量化なのか、それとも他のタイプのNSなのか?

 
なぜ2つのグラフがあるのか?
 

まあ、ステレオ用ですね。本当に立体的な絵なんです。

budimir писал(а)>>

>> SOMのように入力データを量子化するようなものなのか、それとも他のタイプのNSなのか?

各ニューロンにバイアスと非線形性を持たせた従来の3層ペルセプトロンで、各バーで完全再トレーニングを行います。
 
通常の3層式パーセプトロンであれば、なぜevery barで完全に再トレーニングする必要があるのでしょうか?
 

質問していいですか?

可能であるなら、なぜそうしないのか。

 

可能性はあるが、NSタイプのMLPのように、小節ごとに学習を行う必要がある特殊なタイプも存在する。

MLPの再トレーニングが必要な場合、何らかの基準があるはずです。

というような基準、つまりそのような可能性があるというのは疑問です。

 
この対話をすることで、私たちは無意識のうちに異なる最適化問題(グローバルな意味での)を解いていることになるのです。どのようなアプローチで選んだのか、私には想像するしかありません。私の場合は、現段階では「NSトレーニングの複雑さ」というパラメータで自分を縛ることができないほど、自由に使える計算パワーがあると言えるでしょう。もちろん、各ステップでNSの再トレーニング(追加学習)を行っても支障はない。このように、調査対象領域のパラメータ空間の次元を1つ下げることで、AIの他の興味深い側面に注意を向けることができるのです。そういう意味では、最適にやっていると思います。
理由: