人工ニューラルネットワーク - ページ 9

 
tol64:
しかし、それに対する反論も持ってきました。カメラも望遠鏡なら、目の能力を何度も超えている。))

天文学は、望遠鏡が発見される以前に、普通の目を持つ人々によって研究されていました。このビジネスでは、画像の伝達ではなく、その解釈が重要です。)

ところで、コンピュータも、脳を模して作られたわけではないが、多くの点で人間を凌駕している。

 
IgorM:

...

....そして素晴らしいのは、不要な情報をフィルタリングし、市場の数理モデルを作ることで、NSなしでも効果的なTSを構築することができる点です。

そして、なぜ悲しいのか?))それどころかTSが見つかって、NSなしでもかなり効果があるのであれば、喜ぶべきことです。))
 
Urain:

天文学は、望遠鏡が発見される以前から、普通の目で研究されていました。)

ところで、コンピュータも、脳に似せて作られたわけではないが、多くの点で人間を凌駕している。

しかし、現在のコンピューターモデルは、すでに「きしみ」が生じている。これ以上の発展は困難であり、ほとんど不可能とさえ言えます。そのため、Kwabenaらは脳に近いモデルを実現しようとしているのです。

また、10mの望遠鏡の目に比例して人間が大きくなれば、それ以上不気味に見えることはないだろう。あるいは、望遠鏡を今の目の大きさに合わせて小さくすれば、もちろん。)))

 
tol64: そして、なぜそれが悲しいのか?))それどころかNSがなくてもTSが見つかり、かなり効果があるのであれば、それはそれで幸せなことだと思います。))

NSを扱うのではなく、データの分析とフィルタリングを一度に行うことができたという、無駄な時間の悲しさ

ZS: そういうつもりはなかったんですが、それでも、少なくとも比喩的に、初心者がNSに何を求めているのか、僕がどう見ているかをお話しします。もし「ニューラルネットワーク」という美しい名前ではなく、例えば「指数回帰の数学的あてはめ」だったら、このような数学的ツールへの関心や期待は低くなるでしょうが、名前の響きのおかげで、「賢い対数定規」に奇跡を期待する人がいます。

 
tol64:

しかし、現在のコンピューターモデルはすでに「きしみ」を生じている。これ以上の発展は困難であり、ほとんど不可能とさえ言えます。だから、同じクワベナらが脳のようなモデルを実現しようとしているのです。

また、10mの望遠鏡の目に比例して人間が大きくなれば、それ以上不気味に見えることはないだろう。あるいは、望遠鏡を今の目の大きさに合わせて小さくすれば、もちろん。)))

コンピュータの演算自体が300年前の手法を実装しているからこそ、デッドロックになるのです。

数学は実質的に並列手法を開発しないのが、問題の本質です。

借用に値するのは主に手法の並列性であり、NSはこの点で一歩前進しているが、自然NSに準じたNS作品のコピーでは後退していることになる。

 
tol64:

そのような研究者を個人的に知っているのは素晴らしいことです。もしかして、ヘンリー・マークラムをご存知ですか?2009年の予測では10年だった。:)今、彼はどのような立ち位置にいるのだろう。

ヘンリー・マークラムはスーパーコンピュータの中で脳を構築している

いいえ、個人的にではありません。でも、彼のブルー・ブレイン・プロジェクトはよく知っています。マークラムは、ニューロンの働き(イオンチャネル、ニューロンの体内でのイオンの動きと電気インパルスの伝播を記述する拡散方程式、遅延など)を正確にモデル化してこそ、脳の働き方を理解しコピーすることができると考えている。2009年、IBMは猫の脳をモデリングしたことを世界に発表した。マークラムは、IBMの研究者が使ったのは点結合ニューロン、つまり単純な数学モデル(重み付き入力の和と非線形活性化関数を持つ古典的ネットワークのニューロンなど)だと主張し、かなり憤慨していた(http://spectrum.ieee.org/tech-talk/semiconductors/devices/blue-brain-project-leader-angry-about-cat-brain)。この分野でもう一人、興味深い科学者がペンローズだ。つまり、イオン交換、化学反応、神経細胞体内を伝播するインパルスなどの詳細をすべて知っても、脳の働きを理解し説明するには十分ではないと主張しているのだ。神経細胞内の量子反応があればこそ可能であると主張する(ハメロフ・ペンローズ理論)。こちらをご覧くださいhttps://en.wikipedia.org/wiki/Quantum_mind. ペンローズはまた、こうした量子反応を通じて、私たちの脳は異次元に「行く」ことができ、そこから知識を引き出せると主張している。彼の講義(ロジャー・ペンローズ)をyoutubeで調べてみてください。野性的な面白さがある。

マークラムの予測はよく知らない。1990年代まで、神経生物学者は、ニューロン間の情報のやりとりは、数で表現できるインパルスであると信じており、そこから古典的なネットワークが生まれた。90年代半ば、科学者たちは、一定期間の数よりも個々のインパルスのタイミングが重要であることを発見しました。マークラムらは、シナプスの重みを変化させる新しいルール、すなわちSTDPを発見した。ここ10年ほどの間に多くの神経生物学者が、情報をパルス(0/1の2値信号のようなもの)として分配し、重みがSTDPによって変化する、いわゆるスパイクネットワークの構築を始めている。これらの神経科学者は、古典的なネットワークがロボットにつながらないのは、情報(パルスではなく数)、ニューロン(差分方程式ではなく重み付き入力の和)、重みの変化(STDPではなくヘブの法則)を誤って記述しているからだと主張するようになったのだ。しかし、残念ながら、これらの新しいスパイキングネットワークは、その能力において古典的なネットワークを超えるには至っていない。また、コンピュータのパワーもかなり必要です。ですから、これまでの神経生物学にはあまり進歩がなく、パターンを明らかにできるような新しいネットワークは期待できないのです。

Cat Fight Brews Over Cat Brain
  • spectrum.ieee.org
Last week, IBM announced that they had simulated a brain with the number of neurons and synapses present in a cat's brain. In February 2008, the National Academy of Engineering issued a grand challenge to reverse engineer the human brain, sweetening a pot neuroscientists had already been stirring for a long time. There are as many theories of...
 
papaklass:


つまり、相場が動いているときのウェイトの変化を記述したモデルを作れば、それほど落ち込まない、違った結果になるかもしれません。このような研究をされているのでしょうか?

自由にやってください。

この場合、2つ目のグリッドが必要となり、市場の動きに応じて1つ目のグリッドの重みが変化するパターンを調べることになる。そして、3つ目のグリッドが必要になり、1つ目のグリッドの変化と2つ目のグリッドの依存関係や市場の変化も調べることになります。そして、4人目の・・・。

例えば、市場における重みの変化を記述するモデルを作成したとする。次にどうするか?

 
Reshetov:

自由に取り上げてください。

そのためには、2つ目のグリッドが必要で、市場の変化に応じて1つ目のグリッドの重みが変化するパターンを探します。そして、3つ目のグリッドが必要で、1つ目のグリッドと市場が変化したときに、2つ目のグリッドの依存関係も調べます。そして、4人目の・・・。



そしてここで私は最初のグリッドの後に第二が必要とされることを知らない、3年間の市場からお金を取っていた...

分析的思考の持ち主である私にとって、このようなスレッドを読むのは危険であり、イヤイヤ止めている、何も考えていない・・・。

 
St.Vitaliy:

そして、最初のネットワークの後、2つ目のネットワークが必要になることも知らずに、3年間市場からお金を取り出していたのです...。

まあ、顔があれば、市場からお金を取らずとも、印刷すればいいわけですから。
 
papaklass:

つまり、相場が動いているときのウェイトの変化を記述したモデルを作れば、それほど落ち込まない、違った結果になるかもしれません。このような研究をされているのでしょうか?

いいえ、していません。いいことは何もないと思います。以下は私の感想です。ネットワークの代わりに多項式回帰を使うとすると、これも普遍的な非線形モデリングの方法である。そこで、私たちの課題は、多項式をあてはめることです。

y = a0 + a1*x + a2*x^2 + ...である。

を係数a0, a1, a2,...として、データy(x)に代入する。であり、多項式モデルの誤差を小さくすることができます。多項式モデルは、フィットが行われたデータでのみ有効であることが分かっています。基本的には、モデル係数a0, a1, a2,... を作ることを提案されていますね。(ネットワークの同じ重み)を入力データに依存させることで、未学習のデータに対してよりロバストなモデルを作る、つまり、a1(x), a2(x),... を作る。それぞれの係数を異なる多項式で記述する。

a1 = b0 + b1*x + b2*x^2 +・・・。

a2 = c0 + c1*x + c2*x^2 +...

...

これらの係数を最初のモデルに代入してみると、どうなるだろうか。同じ多項式でも高次のものは、学習データをより正確に記述できるが、新しいデータでは性能が劣る。ネットワークも全く同じです。あるネットワークが別のネットワークを育て、そのネットワークがまた別のネットワークを育て......といった具合に、ひとつの大きなネットワークに過ぎないのです。新しいデータでは、これ以上正確な挙動は得られないでしょう。でも、もしこのアイデアを試したい人がいたら、結果を教えてください。