スクリプト形式のニューラルネットワーク - ページ 12 1...567891011121314 新しいコメント Neutron 2008.07.02 09:20 #111 TheXpert писал (а)>> しかし、多くの問題は5層のペルセプトロンで解決されており、この定理があるからといって、3層のペルセプトロンが万能というわけではありません。 これは、すべての問題(ごく少数の例外を除いて)は、隠れ層が1つの2層ペルセプトロンで解ける、というだけのことですそうですね、用語の話ですが、NSの入力ノード(ニューロンを含まないもの)をレイヤーとしてカウントしているようですが、私はそうではありません。 5-6-6-2のネットワークと、5-25-2の3層置き換えと、どちらがいいのでしょうか?このような大きな数は、適切な非直線性を確保するためにうまくいくかもしれません。 私ならX-Y-1アーキテクチャを使いますね、これで問題解決です。そして、隠れ層Yのニューロン数を2個から始めて、ネットワークの汎化特性が向上しなくなるまで、実験的に調整することにしました。私のささやかな経験では、多くの実用的な実装では、この層は2つのニューロンで十分である。さらにニューロン数を増やすと学習時間が長くなり、シナプスの数が増えるため学習サンプルや入力次元を大きくしなければならず、重要でない情報の「処理」やNSの近似特性の悪化(Ezhovによれば、これらの特性は1/d(dは入力数)となる)などが起こり、良いことはない。 もちろん、10層のペルセプトロンを作ればうまくいくのですが......。が、何の意味があるのか? TheXpert 2008.07.02 09:27 #112 Neutron писал (а)>> すべての問題(ごく少数の例外を除いて)は、隠れ層が1層の2層ペルセプトロンで解ける、と簡単に主張するのですそうですね、用語の話ですが、NSの入力ノード(ニューロンを含まないもの)をレイヤーとしてカウントしているようですが、私はそうではありません。 私ならX-Y-1アーキテクチャを使いますね、これで問題解決です。そして、隠れ層Yのニューロン数を2から始めて、ネットワークの汎化特性が向上しなくなるまで、実験的に選んでいくのです。私のささやかな経験では、多くの実用的な実装では、この層は2つのニューロンで十分である。さらにニューロン数を増やすと、学習時間が長くなり、シナプスの数が増えるため、学習サンプルのサイズや入力の次元を大きくしなければならない。これは、重要でない情報の「処理」やNSの近似特性の悪化(Ezhovによれば、これらの特性は1/d(dは入力数)になる)につながり、良いことは何もない。 入力に10があるとします。隠れ層は2つでいいのでしょうか?まさか、かなり単純な作業で辻褄が合いませんね。 入力層について。閾値を持つ入力層をやる価値がある場合もあるので、もう一つの層として、システム全体と一体化して扱った方が良いですね。 TheXpert 2008.07.02 09:31 #113 sergeev писал (а)>> うーん...この最適なまとめ方はないものか。そして、5プライと3プライのものについては、私も不思議に思っています。その理論はどこにあるのか? 最適化について - 私の個人的な、もしかしたら間違ったかもしれない経験です。レイヤー数について-実際に遭遇したことがあります。入出力変換の非直線性に依存するが、ほとんどの問題は3層ネットワークで解決することができる。理論については、すみません、だいぶ前のことなので...。 Yury Reshetov 2008.07.02 09:33 #114 TheXpert писал (а)>> しかし、多くの問題は5層のペルセプトロンで解決できるため、この定理があるからといって、3層のペルセプトロンが万能であるとは言い切れない。 5-6-6-2のネットワークと3層の5-25-2の置き換え、どちらが良いのでしょうか?このような大きな数値は、適切な非直線性には有効かもしれません。 ところで、XORaに最も近いアーキテクチャをご存じでしょうか? 4ニューロン・ミドル--S状結節 XOR-aの解析解がある。 outXOR = in1 + in2 - 2*in1*in2 ここで、in1 と in2 の入力は 0 から 1 までの値をとる。 コンバージェンスは瞬時に行われます。 TheXpert 2008.07.02 09:49 #115 Reshetov писал (а)>> XOR-aについては、解析的な解がある。 outXOR = in1 + in2 - 2*in1*in2 ここで、in1 と in2 の入力は 0 から 1 までの値をとる。 収束は瞬時に行われる。 笑)。どんな関数にも解析解があるのですが、それを見つけるのが......。時には、とてもとても難しいこともあります。 この例を挙げたのは、3層ペルセプトロンが必ずしもベストな選択ではないことを改めて示すためです。 Neutron 2008.07.02 10:18 #116 TheXpert писал (а)>>この例を挙げたのは、3層ペルセプトロンが必ずしもベストな選択ではないことを改めて示すためです。 この問題は、ニューロンで閾値を設定した3層ペルセプトロンでも解けるし、ラジアル関数に基づくNSでも対応できる。 一般に、多くのバリエーションがあり、適切なものを見つけることが課題です。 TheXpert 2008.07.02 10:30 #117 Neutron писал (а)>> この問題は、ニューロンに閾値を持つ3層パーセプトロンでも解くことができ、ラジアル関数に基づくNSでも扱うことができる。 一般に、多くのバリエーションがあり、適切なものを見つけることが課題です。 >> 写真ありがとうございました。 --- 2008.07.02 10:45 #118 これらの本を私にください。あるいは著者が誰なのか。 Neutron 2008.07.02 10:52 #119 ヘイキンからです。詳細はトピックの前ページに記載しています。 Sergey Fionin 2008.07.02 11:12 #120 ある歴史の深さにおいて、解決策を生み出すスクリプトを書くという具体的なタスクがあるのだ--。 その上で、具体的な最小限のネットワーク構成と必要最小限の入力数を決定する必要がある。つまり、条件を定義した上で、具体的な製品を用意し、チャートに貼り付けて結果を見るということを、全世界で実現する必要があるのです。クロットのサイトでも、ニューロインディケーターという形で似たようなものを見たことがあります。 http://www.fxreal.ru/forums/topic.php?forum=2&topic=1 1...567891011121314 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
しかし、多くの問題は5層のペルセプトロンで解決されており、この定理があるからといって、3層のペルセプトロンが万能というわけではありません。
これは、すべての問題(ごく少数の例外を除いて)は、隠れ層が1つの2層ペルセプトロンで解ける、というだけのことですそうですね、用語の話ですが、NSの入力ノード(ニューロンを含まないもの)をレイヤーとしてカウントしているようですが、私はそうではありません。
5-6-6-2のネットワークと、5-25-2の3層置き換えと、どちらがいいのでしょうか?このような大きな数は、適切な非直線性を確保するためにうまくいくかもしれません。
私ならX-Y-1アーキテクチャを使いますね、これで問題解決です。そして、隠れ層Yのニューロン数を2個から始めて、ネットワークの汎化特性が向上しなくなるまで、実験的に調整することにしました。私のささやかな経験では、多くの実用的な実装では、この層は2つのニューロンで十分である。さらにニューロン数を増やすと学習時間が長くなり、シナプスの数が増えるため学習サンプルや入力次元を大きくしなければならず、重要でない情報の「処理」やNSの近似特性の悪化(Ezhovによれば、これらの特性は1/d(dは入力数)となる)などが起こり、良いことはない。
もちろん、10層のペルセプトロンを作ればうまくいくのですが......。が、何の意味があるのか?
すべての問題(ごく少数の例外を除いて)は、隠れ層が1層の2層ペルセプトロンで解ける、と簡単に主張するのですそうですね、用語の話ですが、NSの入力ノード(ニューロンを含まないもの)をレイヤーとしてカウントしているようですが、私はそうではありません。
私ならX-Y-1アーキテクチャを使いますね、これで問題解決です。そして、隠れ層Yのニューロン数を2から始めて、ネットワークの汎化特性が向上しなくなるまで、実験的に選んでいくのです。私のささやかな経験では、多くの実用的な実装では、この層は2つのニューロンで十分である。さらにニューロン数を増やすと、学習時間が長くなり、シナプスの数が増えるため、学習サンプルのサイズや入力の次元を大きくしなければならない。これは、重要でない情報の「処理」やNSの近似特性の悪化(Ezhovによれば、これらの特性は1/d(dは入力数)になる)につながり、良いことは何もない。
入力に10があるとします。隠れ層は2つでいいのでしょうか?まさか、かなり単純な作業で辻褄が合いませんね。
入力層について。閾値を持つ入力層をやる価値がある場合もあるので、もう一つの層として、システム全体と一体化して扱った方が良いですね。
うーん...この最適なまとめ方はないものか。そして、5プライと3プライのものについては、私も不思議に思っています。その理論はどこにあるのか?
最適化について - 私の個人的な、もしかしたら間違ったかもしれない経験です。レイヤー数について-実際に遭遇したことがあります。入出力変換の非直線性に依存するが、ほとんどの問題は3層ネットワークで解決することができる。理論については、すみません、だいぶ前のことなので...。
しかし、多くの問題は5層のペルセプトロンで解決できるため、この定理があるからといって、3層のペルセプトロンが万能であるとは言い切れない。
5-6-6-2のネットワークと3層の5-25-2の置き換え、どちらが良いのでしょうか?このような大きな数値は、適切な非直線性には有効かもしれません。
ところで、XORaに最も近いアーキテクチャをご存じでしょうか?
4ニューロン・ミドル--S状結節
XOR-aの解析解がある。
outXOR = in1 + in2 - 2*in1*in2
ここで、in1 と in2 の入力は 0 から 1 までの値をとる。
コンバージェンスは瞬時に行われます。
XOR-aについては、解析的な解がある。
outXOR = in1 + in2 - 2*in1*in2
ここで、in1 と in2 の入力は 0 から 1 までの値をとる。
収束は瞬時に行われる。
笑)。どんな関数にも解析解があるのですが、それを見つけるのが......。時には、とてもとても難しいこともあります。
この例を挙げたのは、3層ペルセプトロンが必ずしもベストな選択ではないことを改めて示すためです。
この例を挙げたのは、3層ペルセプトロンが必ずしもベストな選択ではないことを改めて示すためです。
この問題は、ニューロンで閾値を設定した3層ペルセプトロンでも解けるし、ラジアル関数に基づくNSでも対応できる。
一般に、多くのバリエーションがあり、適切なものを見つけることが課題です。
この問題は、ニューロンに閾値を持つ3層パーセプトロンでも解くことができ、ラジアル関数に基づくNSでも扱うことができる。
一般に、多くのバリエーションがあり、適切なものを見つけることが課題です。
>> 写真ありがとうございました。
ある歴史の深さにおいて、解決策を生み出すスクリプトを書くという具体的なタスクがあるのだ--。
その上で、具体的な最小限のネットワーク構成と必要最小限の入力数を決定する必要がある。つまり、条件を定義した上で、具体的な製品を用意し、チャートに貼り付けて結果を見るということを、全世界で実現する必要があるのです。クロットのサイトでも、ニューロインディケーターという形で似たようなものを見たことがあります。
http://www.fxreal.ru/forums/topic.php?forum=2&topic=1