記事: ニューラルネットワークによる価格予測 - ページ 15 1...891011121314151617 新しいコメント Candid 2008.04.15 17:12 #141 Neutron: 追記 運んだ、運んだ、運んだ;-) これは、単層非線形NSのスケールに対する "FINE "解析解である。 ... 思わず微笑んでしまいました。 しかし、全体の計算には1ミリ秒を要します。 理論的には、どんなNSも連立方程式と等価である。また、単純なものであれば、この系を解析的に書いて、重さに関して解いた方が安上がりである。ネットワーク(等価な方程式系)が複雑になると、問題が発生し、それに伴って巧妙な学習方法が必要とされるようになる。そのことに気づいて、興味本位で始めたネットワークとの付き合いを一旦中断したのです。私は、まずモデルを作り、それを解決するために最も経済的な方法を探すべきだと考えたのです。NSの手法を適用するのは、非常に複雑なモデルに対してのみ正当化されるような気がします :) 。 Neutron 2008.04.16 00:57 #142 Jhonny: 神経科学者」の素人である私に説明してください...。当該ネットワークは、多層パーセプトロンであると理解しています。 このようなネットワークを選んだ理由は何ですか?なぜホップフィールドやコウホネンなどではなく、他のネットワークなのですか? どちらかというと、哲学的な問いかけですね。ポイントは、「複雑な」NSアーキテクチャは無限に存在するが、最もシンプルなものは唯一無二である、ということだ単層パーセプトロンです。この場合、非線形活性化関数で実装される。 キャンディッドに 理論的にはどんなNSも連立方程式と等価である。また、単純なものであれば、解析的に書き出して、重さに関して解いた方が安上がりである。ネットワーク(等価な方程式系)が複雑になると、問題が発生し、それに伴って巧妙な学習方法が必要とされるようになる。そのことに気づいて、興味本位で始めたネットワークとの付き合いを一旦中断したのです。まずはモデルを作り、それを解決するために最も経済的な方法を探さなければならないと考えただけです。NSの手法を適用するのは、非常に複雑なモデルに対してのみ正当化されるような気がします :) 。 そうですね。また、市場BPに内在する非定常性についても言及することができ、これは従来の統計手法に終止符を打ち、NSに有利な点をもう一つ与えている。 ちなみに、NSウエイトの連立方程式を解析的に解いたことがあるんですよ。黒字は誤差の逆伝播(ORO)エポック数1000でNSを学習する通常の方法、青字は解析解を示す。NSの学習は各ステップで行われ、予測は一歩先まで行われる。 BPのトレンド部分の解析バリアントは、私の理解できない理由で間違っていることがわかります。しかし、この問題のORO法による計算時間は10秒、解析法による計算時間は0.001秒である。 性能向上は10000倍! 一般に、ネットワークの運用は魅力的です。価格動向を察知して、磁石のように予報に引きつけているようです rsi 2008.04.16 05:41 #143 Neutron: Jhonny 神経科学者」の素人である私に説明してください...。当該ネットワークは、多層パーセプトロンであると理解しています。 このようなネットワークを選んだ理由は何ですか?なぜホップフィールドやコウホネンなどではなく、他のネットワークなのですか? どちらかというと、哲学的な問いかけですね。ポイントは、「複雑な」NSアーキテクチャは無限に存在するが、最もシンプルなものは唯一無二である、ということだ単層パーセプトロンです。この場合、非線形活性化関数で実装される。 ... 一般に、ネットワークの運用は魅力的です。価格動向を察知して、まるで磁石のように引き寄せるようです もちろん、この問いは哲学的なものです。私もビギナーです。でも、たとえば確率の高いネットではダメなんでしょうか。特に、昨年のよく知られた出来事の後では?たしかに、そこでも課題は異なります。予測は観測可能なパラメータのフィルタリングに近いとすれば、確率の推定は観測不可能なパラメータのフィルタリングに近いが、解の領域への移行の問題を一度に解決してしまう。 追伸:ちなみに、確率的ネットワークの実行時間は、多層パーセプトロンとは比較にならないほど短く、学習性も悪くありません。 P.P.S. 選手権の時、ベターのバランスカーブを見ていた時は、私も魅了されました。:-) ds2 2008.04.16 09:00 #144 Neutron:もっと深く掘り下げたい...。例えば、NS(隠れ層)の複雑さがどの程度正当化されるのか、などです。 入力に何が入力されているかによります。もし、市場から直接バー(の増量分)を取れば、それは非常に正当化されるでしょう。 この例では、グラフが滑らかで、単調であるため、そのようなことは見られません。そこには、1入力のNSの「裁定」まであるんですね。つまり、最も原始的なトレンドフォローのトレーディングシステムのアナログです。この問題は、NSを使わなくても完全に解決します。どんな多層ネットワークがあるのか・・・。 ニュートロンとにかく、気が狂いそうです要は、NSの非線形性をある形で表現すれば、重みの正確な解析解が得られるということです。これは、ひいては、逆誤差伝播法によるネットワークの学習を廃止し、そこに1000エポックの学習をすることなく、ワンアクションで可能な限り正確な結果を得ることができるようになることを意味します!!!! NSの学習は、関数の最適化 問題であることを理解する必要がある。そしてその解析的な解法は、連立方程式を解くよりもはるかに複雑である。1つの変数から線形回帰 関数を解析的に計算する方法を見る(最も単純なパーセプトロンのアナログ)...いかがでしょうか?ここで、変数が多く、関数がn次の非線形である場合(多層膜NSのアナログ)、どのような解になるかを想像してみると......。:-) NSは生活を簡素化するために発明された。また、バックプロパゲーションで正確にネットワークを学習させる必要はありません。最もシンプルなアルゴリズムですが、最も遅い アルゴリズムでもあります。それに、もっと桁違いに速いアルゴリズムもある。 Neutron 2008.04.16 09:36 #145 ds2: ニュートロン もっと深く掘り下げたい...。例えば、NS(隠れ層)の複雑さがどの程度正当化されるのか、などです。 入力に何が入力されているかによります。もし、市場から直接バー(の増量分)を取れば、それは非常に正当化されるでしょう。 このグラフは滑らかで、単調なものだからです。そこには、1入力のNSの「裁定」まであるんですね。つまり、最も原始的なトレンドフォローのトレーディングシステムのアナログである。この問題は、NSを使わなくても完全に解決します。どんな多層ネットワークがあるのか・・・。 ds2 さん、価格などのBP予測に使う単層パーセプトロンと多層パーセプトロンの没入度が同じであれば、どちらが有利か理由を教えてください。予測能力のグラフという形で論証してほしい。 ds2 2008.04.16 13:24 #146 Neutron: ds2 です。 入力に何が入力されているかによります。市場からまっすぐなバー(その増分)を貼り付けると、それは非常に正当化されます。 この例では、グラフが滑らかで、単調であるため、そのようなことは見られません。 ds2 さん、BP型の価格予測に使われる単層パーセプトロンと多層パーセプトロンが、同じ深さであれば、どちらがいいのか説明していただけますか?予測能力のグラフという形で論証してほしい。 まあ、ネットワークの仕組みを理解すれば、当たり前のことなんですけどね。単層ネットワークは単調な依存関係しか記述できないが、多層ネットワークはあらゆる依存関係を記述することができる。 NSと既知のMTSの能力を比較すると、単層ネットワークはMACDの動作を模倣することができますが、多層ネットワークのみがPessaventoのパターンを認識することができます。 ご自身で実験して確かめてみてください。そのためのツールやデータはすべて揃っていますね。 削除済み 2008.05.15 12:34 #147 MQLで入力推定用のKolmogorov-Smirnov基準やSpearman順位相関を書かれた方はいらっしゃいますか? Rashid Umarov 2008.05.15 12:40 #148 まだテストに手が回らず、順位相関はあまり見ることができない「スピアマンの順位相関係数 aab 2008.06.16 19:58 #149 持っている人がいるかどうか、気になるところです。それとも、この情報はすでに言及されており、私はそれを見逃しているのでしょうか?リンク先を突いてください。 このリンクは、登録時にアクセスすることもできません。あるいは、聖杯への道を描いているのかもしれない;-)。 http://www.maikonline.com/maik/showArticle.do?auid=VAF0AMGLSL〈=en PDF 274kb サンプリングされたデータから多変数の複雑な関数をモデル化するためのニューラルネットワークフレームワーク Е.V. Gavrilova, O. A. Mishulina, M. V. Shcherbinina Izvestia RAN.理論と制御システム 第1号 2007年1月-2月号 P. 73-82 本研究では、加法性雑音に対して測定され、その定義のある部分領域において質的に異なる動的特性を特徴とする多変数の関数の近似問題を考察する。 この問題に対して、特殊なモジュール型ニューラルネットワーク構造LINAを用いた解決法を提案する。 その学習と機能に関するルールを定式化する。 Сергей 2008.07.03 10:14 #150 Anfiseditでトレーニングすると、エラーが表示され続ける。 ???anfiseditを使用した場合のエラー ハンドルオブジェクトが無効です。 ???uicontrolコールバックの評価中にエラーが発生しました。 データを作成したが、記事の ような絶対率ではなく、ろうそくの種類別に作成した。逆なら -1 - デイキャンドルの終値は、始値よりも高い場合、1。最初は10件あったのですが、私のノートパソコンでは引き出せませんでした。記事にあるようにエントリー数を4つに減らし、アーキテクチャも表示され、すべてうまくいっているように見えますが、数エポック後にtrainを押すと学習が止まり、チャートの上と一番最初に書いたコマンドラインにTrain Errorが書かれています。何が問題なのか?Matlab版は不具合があるのでは?Matlab 7.0.1.24704 (R14) Servise Pack 1 を持っています。 ANFISでうまくいかなかったので、NNToolを試してみることにしました。入力(4点)、出力(4点)を別々に読み込み、パラメータを指定してネットワークを作成したのですが、ネットワークアーキテクチャを表示すると、入力が2点になっています。とりあえず電車を押してみたら、エラーが出た。 使用中のエラー ==> networktrain 入力のサイズがネットワークに対して不適切である。 行列はすべて2行でなければならない。 入力数を設定する箇所はありましたか? 1...891011121314151617 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
追記
運んだ、運んだ、運んだ;-)
これは、単層非線形NSのスケールに対する "FINE "解析解である。
...
思わず微笑んでしまいました。
しかし、全体の計算には1ミリ秒を要します。理論的には、どんなNSも連立方程式と等価である。また、単純なものであれば、この系を解析的に書いて、重さに関して解いた方が安上がりである。ネットワーク(等価な方程式系)が複雑になると、問題が発生し、それに伴って巧妙な学習方法が必要とされるようになる。そのことに気づいて、興味本位で始めたネットワークとの付き合いを一旦中断したのです。私は、まずモデルを作り、それを解決するために最も経済的な方法を探すべきだと考えたのです。NSの手法を適用するのは、非常に複雑なモデルに対してのみ正当化されるような気がします :) 。
神経科学者」の素人である私に説明してください...。当該ネットワークは、多層パーセプトロンであると理解しています。
このようなネットワークを選んだ理由は何ですか?なぜホップフィールドやコウホネンなどではなく、他のネットワークなのですか?
どちらかというと、哲学的な問いかけですね。ポイントは、「複雑な」NSアーキテクチャは無限に存在するが、最もシンプルなものは唯一無二である、ということだ単層パーセプトロンです。この場合、非線形活性化関数で実装される。
キャンディッドに
理論的にはどんなNSも連立方程式と等価である。また、単純なものであれば、解析的に書き出して、重さに関して解いた方が安上がりである。ネットワーク(等価な方程式系)が複雑になると、問題が発生し、それに伴って巧妙な学習方法が必要とされるようになる。そのことに気づいて、興味本位で始めたネットワークとの付き合いを一旦中断したのです。まずはモデルを作り、それを解決するために最も経済的な方法を探さなければならないと考えただけです。NSの手法を適用するのは、非常に複雑なモデルに対してのみ正当化されるような気がします :) 。
そうですね。また、市場BPに内在する非定常性についても言及することができ、これは従来の統計手法に終止符を打ち、NSに有利な点をもう一つ与えている。
ちなみに、NSウエイトの連立方程式を解析的に解いたことがあるんですよ。黒字は誤差の逆伝播(ORO)エポック数1000でNSを学習する通常の方法、青字は解析解を示す。NSの学習は各ステップで行われ、予測は一歩先まで行われる。
BPのトレンド部分の解析バリアントは、私の理解できない理由で間違っていることがわかります。しかし、この問題のORO法による計算時間は10秒、解析法による計算時間は0.001秒である。
性能向上は10000倍!
一般に、ネットワークの運用は魅力的です。価格動向を察知して、磁石のように予報に引きつけているようです
神経科学者」の素人である私に説明してください...。当該ネットワークは、多層パーセプトロンであると理解しています。
このようなネットワークを選んだ理由は何ですか?なぜホップフィールドやコウホネンなどではなく、他のネットワークなのですか?
どちらかというと、哲学的な問いかけですね。ポイントは、「複雑な」NSアーキテクチャは無限に存在するが、最もシンプルなものは唯一無二である、ということだ単層パーセプトロンです。この場合、非線形活性化関数で実装される。
...
一般に、ネットワークの運用は魅力的です。価格動向を察知して、まるで磁石のように引き寄せるようです
もちろん、この問いは哲学的なものです。私もビギナーです。でも、たとえば確率の高いネットではダメなんでしょうか。特に、昨年のよく知られた出来事の後では?たしかに、そこでも課題は異なります。予測は観測可能なパラメータのフィルタリングに近いとすれば、確率の推定は観測不可能なパラメータのフィルタリングに近いが、解の領域への移行の問題を一度に解決してしまう。
追伸:ちなみに、確率的ネットワークの実行時間は、多層パーセプトロンとは比較にならないほど短く、学習性も悪くありません。
P.P.S. 選手権の時、ベターのバランスカーブを見ていた時は、私も魅了されました。:-)
もっと深く掘り下げたい...。例えば、NS(隠れ層)の複雑さがどの程度正当化されるのか、などです。
入力に何が入力されているかによります。もし、市場から直接バー(の増量分)を取れば、それは非常に正当化されるでしょう。
この例では、グラフが滑らかで、単調であるため、そのようなことは見られません。そこには、1入力のNSの「裁定」まであるんですね。つまり、最も原始的なトレンドフォローのトレーディングシステムのアナログです。この問題は、NSを使わなくても完全に解決します。どんな多層ネットワークがあるのか・・・。
とにかく、気が狂いそうです要は、NSの非線形性をある形で表現すれば、重みの正確な解析解が得られるということです。これは、ひいては、逆誤差伝播法によるネットワークの学習を廃止し、そこに1000エポックの学習をすることなく、ワンアクションで可能な限り正確な結果を得ることができるようになることを意味します!!!!
NSの学習は、関数の最適化 問題であることを理解する必要がある。そしてその解析的な解法は、連立方程式を解くよりもはるかに複雑である。1つの変数から線形回帰 関数を解析的に計算する方法を見る(最も単純なパーセプトロンのアナログ)...いかがでしょうか?ここで、変数が多く、関数がn次の非線形である場合(多層膜NSのアナログ)、どのような解になるかを想像してみると......。:-)
NSは生活を簡素化するために発明された。また、バックプロパゲーションで正確にネットワークを学習させる必要はありません。最もシンプルなアルゴリズムですが、最も遅い アルゴリズムでもあります。それに、もっと桁違いに速いアルゴリズムもある。
もっと深く掘り下げたい...。例えば、NS(隠れ層)の複雑さがどの程度正当化されるのか、などです。
入力に何が入力されているかによります。もし、市場から直接バー(の増量分)を取れば、それは非常に正当化されるでしょう。
このグラフは滑らかで、単調なものだからです。そこには、1入力のNSの「裁定」まであるんですね。つまり、最も原始的なトレンドフォローのトレーディングシステムのアナログである。この問題は、NSを使わなくても完全に解決します。どんな多層ネットワークがあるのか・・・。
ds2 さん、価格などのBP予測に使う単層パーセプトロンと多層パーセプトロンの没入度が同じであれば、どちらが有利か理由を教えてください。予測能力のグラフという形で論証してほしい。
入力に何が入力されているかによります。市場からまっすぐなバー(その増分)を貼り付けると、それは非常に正当化されます。
この例では、グラフが滑らかで、単調であるため、そのようなことは見られません。
ds2 さん、BP型の価格予測に使われる単層パーセプトロンと多層パーセプトロンが、同じ深さであれば、どちらがいいのか説明していただけますか?予測能力のグラフという形で論証してほしい。
まあ、ネットワークの仕組みを理解すれば、当たり前のことなんですけどね。単層ネットワークは単調な依存関係しか記述できないが、多層ネットワークはあらゆる依存関係を記述することができる。
NSと既知のMTSの能力を比較すると、単層ネットワークはMACDの動作を模倣することができますが、多層ネットワークのみがPessaventoのパターンを認識することができます。
ご自身で実験して確かめてみてください。そのためのツールやデータはすべて揃っていますね。
MQLで入力推定用のKolmogorov-Smirnov基準やSpearman順位相関を書かれた方はいらっしゃいますか?
このリンクは、登録時にアクセスすることもできません。あるいは、聖杯への道を描いているのかもしれない;-)。
http://www.maikonline.com/maik/showArticle.do?auid=VAF0AMGLSL〈=en PDF 274kbサンプリングされたデータから多変数の複雑な関数をモデル化するためのニューラルネットワークフレームワーク
Е.V. Gavrilova, O. A. Mishulina, M. V. Shcherbinina Izvestia RAN.理論と制御システム 第1号 2007年1月-2月号 P. 73-82
本研究では、加法性雑音に対して測定され、その定義のある部分領域において質的に異なる動的特性を特徴とする多変数の関数の近似問題を考察する。 この問題に対して、特殊なモジュール型ニューラルネットワーク構造LINAを用いた解決法を提案する。 その学習と機能に関するルールを定式化する。
Anfiseditでトレーニングすると、エラーが表示され続ける。
???anfiseditを使用した場合のエラー
ハンドルオブジェクトが無効です。
???uicontrolコールバックの評価中にエラーが発生しました。
データを作成したが、記事の ような絶対率ではなく、ろうそくの種類別に作成した。逆なら -1 - デイキャンドルの終値は、始値よりも高い場合、1。最初は10件あったのですが、私のノートパソコンでは引き出せませんでした。記事にあるようにエントリー数を4つに減らし、アーキテクチャも表示され、すべてうまくいっているように見えますが、数エポック後にtrainを押すと学習が止まり、チャートの上と一番最初に書いたコマンドラインにTrain Errorが書かれています。何が問題なのか?Matlab版は不具合があるのでは?Matlab 7.0.1.24704 (R14) Servise Pack 1 を持っています。
ANFISでうまくいかなかったので、NNToolを試してみることにしました。入力(4点)、出力(4点)を別々に読み込み、パラメータを指定してネットワークを作成したのですが、ネットワークアーキテクチャを表示すると、入力が2点になっています。とりあえず電車を押してみたら、エラーが出た。
使用中のエラー ==> networktrain
入力のサイズがネットワークに対して不適切である。
行列はすべて2行でなければならない。
入力数を設定する箇所はありましたか?