ニューラル・ネットワーク専門家からの質問 - ページ 15

 

図には2次元の解答空間が描かれていますね。しかも、入力は1つの値だけです。どうしてでしょうか?

議論を続けるためには、最低限のレベルでこの話題に触れることは本当に価値があることなのかもしれませんね。

 
joo:

図には2次元の解答空間が描かれていますね。しかも、入力は1つの値だけです。これはどうしてでしょうか?

議論を続けるためには、最低限のレベルでこの話題に触れることは本当に価値があるのかもしれませんね。

書いているときに、図が完全に一致しないことを意識しましたが、これはあくまで、このフォーラムの記事から引用した、クラスが重複している例です。論点は変わりません。

繰り返しになりますが、この問題にはすでに解決策がありますが、それはリニアです。

--------------------------------------------

では、私も描きますね。

ハンドメイドがいいに決まっている...。)

 

念のため、説明します。

空間は一次元で、データはわかりやすく広げています。



 
そうすると,MLPは1-N-1のように,1入力,隠れ層のNニューロン(S字型f活性化),1出力-1または1(論理型f活性化)となります.Nは、ネットワークが求める機能をどの程度詳細に記述するかに依存する。
 
joo:
そうすると,MLPは1-N-1のように,1入力,隠れ層のNニューロン(S字型f活性化),1出力-1または1(論理的f活性化),となります.Nは、ネットワークが求める機能をどの程度詳細に記述するかに依存する。

つっこみ疲れました。こうもあり、ああもあり、こうもあり。

Nは3から140まで試した。

1と2の両方のニューロンの出力。

などなど。

では、結果を投稿してみます...。

--------------

何でも自分でやるのが好きなんですが、合格するのは分かっているんです。何をやっているのかわからない。

エンコードしてでも解決策(リニア)があり、うまくいくが。

 

どうなんだろう...。MQL言語では可能なのでしょうか?

http://rutube.ru/tracks/3140465.html?v=d80d4eebf754c9fcfa2116bc496b083a

 
lasso:
......

これから結果を載せてみようと思います...。

.......

では、その成果はどこにあるのでしょうか?
 
lasso:

エンコードされていても解決策(リニア)はあるのですが。

参考までに、NSを使わなくてもできることがあれば、NSを引かないほうがいい。学習するのに飽きてしまう。何度も直面したし、文献にも書いてある。しかし、線形決定の本質を理解し、その本質に照らし合わせてデータをうまく前処理すればそうすると、NSは線形解にしたがって動くかもしれません。NS特有の誤差を想定して.........。
 
nikelodeon:
ちなみに、NSを使わなくてもできることがあれば、NSを引かないほうがいい。教えるのがめんどくさいから。私は何度もそれに直面し、それについての文献で話す。しかし、線形決定の本質を理解し、その本質に照らし合わせてデータをうまく前処理すればそうすると、NSは線形解にしたがって動くかもしれません。NS特有の誤差を想定して......。

リッチーソリューションに準拠する」というのがどういうことなのか、私にはよくわからないのですが、一般的にはそうだと思います。:)

しかし、どうやらlassoは、このように人工的なものと連携するために、生体ネットワークを鍛えているようです。

 
間違っている。気にするな......。