市場のエチケット、あるいは地雷原でのマナー - ページ 15 1...8910111213141516171819202122...104 新しいコメント paralocus 2009.05.06 10:23 #141 Neutron >> : 数式はインターネット上に豊富にある文献で自分で調べることができます。 あまり急がないようにしましょう。そして、「非線形学習」など、いろいろな工夫をして人生を複雑にしようとしないでください。それは、邪悪なものからです。シンプルさと調和の中にある美しさと信頼性! 救え、そして慈悲を...。 Neutron 2009.05.06 10:30 #142 :-) TheXpert 2009.05.06 10:34 #143 Neutron >> : ゆっくりでいいんです。そして、「非線形学習」などという、いろいろな工夫で人生を複雑にしようとしないことです。シンプルさと調和の中にある美しさと信頼性! Ы?定番中の定番ですね。ともあれ、お先に失礼します。 paralocus 2009.05.06 11:47 #144 Neutron >> : 長さnサンプルの入力信号のベクトル(一次元とする)があり、n+1サンプルをNetworkの学習の質のテストとする。このベクトル(n個のサンプル)を与え、すべての重みを一様確率密度分布の±1の範囲のランダムな値に等化し、グリッドの出力がどうなったかを見るのである。仮に+5.1とし,n+1カウント(学習ベクトル上の学習済みグリッドが目指すべき値)+1.1を調べ,得られた値と目指すべき+4の差を取り,この値を符号を保ったまま出力ニューロンの各重みに加える(FAなしなら),またはこの値からFAの微分を求めて入力ニューロンの重みに加える(FAありなら),とします.といった具合に。 この作品を消化すれば、さらに第1層(入力層)の入力ウエイトに誤差を押し付ける方法がわかると思います。 1.私の理解では、グリッドには1-学習、2-認識の2つの動作モードが必要で、これらのモードは互換性がない、つまりグリッドはいつでもどちらかの状態にある。 2.長さnの入力信号のベクトルは、例えば、n本のバーのRSI値の配列V[n,3](3つの入力のグリッドの場合)ですね?そして、n+1カウントは、n+1バーの同じRSIです。その場合、RSIの過去の挙動から、将来の挙動を予測するようにグリッドを訓練します。 そうであれば、非平滑なFA関数の微分を取るところまでは、重みはすべてクリアしています。 ( というか、まだやり方がわからないだけなんですが......。隣接する2つのFA(RSI(i))点間の角度係数を取るだけかもしれません。?まあ、いいや、技術的な問題だから、そのうち解決するさ)。 Victor Nikolaev 2009.05.06 12:31 #145 paralocus писал(а)>> 1.私の理解では、グリッドには1-学習、2-認識の2つの動作モードが必要で、これらのモードは互換性がない、つまりグリッドはいつでもどちらかの状態にある。 2.長さnの入力信号のベクトルは、例えば、n本のバーのRSI値の配列V[n,3](3つの入力のグリッドの場合)ですね?そして、n+1カウントは、n+1バーの同じRSIです。その場合、RSIの過去の挙動から、将来の挙動を予測するようにグリッドを訓練します。 そうであれば、非平滑なFA関数の微分を取るところまでは、重みはすべてクリアしています。 ( というか、まだやり方がわからないだけなんですが......。隣接する2つのFA(RSI(i))点間の角度係数を取るだけかもしれません。?まあ、いいや、技術的な問題だから、そのうち解決するさ)。 F.Wasserman.Neurocomputing - Theory and Practiceに非常によく説明されています。 paralocus 2009.05.06 12:36 #146 Vinin >> : F. Wasserman, Neurocomputing - Theory and Practiceで非常によく説明されている。 ええ、ありがとうございます、見つけましたよ。 Neutron 2009.05.06 13:24 #147 paralocus писал(а)>> 1.私の理解では、グリッドには1-学習、2-認識の2つの動作モードが必要で、これらのモードは互換性がない、つまりグリッドはいつでもどちらかの状態にある。 2.長さnの入力信号のベクトルは、例えば、n本のバーのRSI値の配列V[n,3](3つの入力のグリッドの場合)ですね?そして、n+1カウントは、n+1バーの同じRSIです。その場合、RSIの過去の挙動から、将来の挙動を予測するようにグリッドを訓練します。 そうであれば、非平滑なFA関数の微分を取るところまでは、重みはすべてクリアしています。 ( というか、まだやり方がわからないだけなんですが......。隣接する2つのFA(RSI(i))点間の角度係数を取るだけかもしれません。?まあ、これは技術的な問題なので、解決されるでしょう)。 1.新しいデータが到着すると、グリッドは新しい学習ベクトルで学習し、学習直後に1ステップ先の予測を行い、以下、無限大に続く。つまり、各段階でのNSの追加トレーニングの問題である。 2.3つの入力を持つメッシュは、ベクトル長n+1+3の3つの最後の読み取りを行い、それに対して全n回の1段シフトを順次行うことで学習させる。 デリバティブに問題はない。FAとして双曲線接線FA=th(x)を用いれば、そこから微分を求めても問題なく、dFA=1-th(x)^2、このニューロンの入力での補正重みは、dw=delta*(1-th(s)^2)、ここでdeltaはグリッド出力とサンプルの実値との誤差、sはグリッド出力である。 paralocus 2009.05.06 14:52 #148 Neutron >> : 1.新しいデータが到着すると、グリッドは新しい学習ベクトルで学習し、学習直後に1ステップ先の予測を行い、以下、無限大に続く。つまり、各ステップにおけるNSの追加トレーニングの話である。 2.3つの入力を持つメッシュは、ベクトル長n+1+3の3つの最後の読み取りを行い、それに対して全n回の1段シフトを順次行うことで学習させる。 デリバティブに問題はない。FAとして双曲線正接FA=th(x)を用いると、そこから微分dFA=1-th(x)^2を求めるのは問題なく、このニューロンの入力における補正重みは、dw=delta*(1-th(s)^2)、ここでdeltaはグリッド出力とサンプルの実値間の誤差、sはグリッド出力である。 それだ!だから、再教育する必要はないんです。おお、素晴らしい! 2.3つの入力を持つグリッドは、長さn+1+3のベクトルの最後の3つのサンプルを読み、それに対して、すべてのn回を1ステップずつ順次シフトして学習させます。 ここで言い間違いがあったようです。3つの入力を持つグリッドではなく、3つのシナプスを持つニューロンで、それぞれが入力信号を受け取ります。 1synaps - th(RSI(i)) 2synaps - th(RSI(i+dt)) 3synaps - th(RSI(i+td*2)) 1. シナプスの重みをランダムな値(-/+1)で初期化する。これは理にかなっている - 3つしかないのだから。 2.そして、各入力に入力信号のnサンプル、つまりn本前のバーの入力信号列を与える必要がある。 3.そして、n番目のバーにニューロンを出力し、入力信号のn+1個の値と比較し、その差(誤差)を符号付きで各重みに加え、ニューロンの出力がFAでなければならない。 FAからの出力であれば,FAからのプルーデントを乗じた誤差を重みに加える(n番目のバーにおいて) 4.1小節進める(n+1番目がn番目になる)、2~4を繰り返す。 質問です。 1. n = k*w*w/d ? 2.エラー値を計算するには、常にグリッド出力値からテストカウントを減算する? Neutron 2009.05.06 15:17 #149 やった! 続いて、学習のエポックに移りましょう。目標や手段に応じて10から1000まであり、重みの補正のベクトルを形成する方法(実際には1エポック内で可換である)、長さ nカウントの サンプル上のシナプス数wに 等しい長さを有することについてより詳細に触れる予定である。 要するに、まだ悩まないでください。 paralocus 2009.05.06 16:04 #150 Neutron >> : やった! 続いて、学習のエポックに移りましょう。目標や手段に応じて10から1000まであり、重みの補正のベクトルを形成する方法(実際には1エポック内で可換である)、長さnカウントのサンプル上のシナプス数wに等しい長さを有することについてより詳細に触れる予定である。 要するに、まだあまり興奮しないでください。 中性子、ちょっとタイムアウトします。もう一度すべてを考え直し、少なくとも1つのニューロンについてはコードに落とし込まなければなりません。とにかく、1日、2日、そして続きを。 ありがとうございました。 1...8910111213141516171819202122...104 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
数式はインターネット上に豊富にある文献で自分で調べることができます。
あまり急がないようにしましょう。そして、「非線形学習」など、いろいろな工夫をして人生を複雑にしようとしないでください。それは、邪悪なものからです。シンプルさと調和の中にある美しさと信頼性!
救え、そして慈悲を...。
ゆっくりでいいんです。そして、「非線形学習」などという、いろいろな工夫で人生を複雑にしようとしないことです。シンプルさと調和の中にある美しさと信頼性!
Ы?定番中の定番ですね。ともあれ、お先に失礼します。
長さnサンプルの入力信号のベクトル(一次元とする)があり、n+1サンプルをNetworkの学習の質のテストとする。このベクトル(n個のサンプル)を与え、すべての重みを一様確率密度分布の±1の範囲のランダムな値に等化し、グリッドの出力がどうなったかを見るのである。仮に+5.1とし,n+1カウント(学習ベクトル上の学習済みグリッドが目指すべき値)+1.1を調べ,得られた値と目指すべき+4の差を取り,この値を符号を保ったまま出力ニューロンの各重みに加える(FAなしなら),またはこの値からFAの微分を求めて入力ニューロンの重みに加える(FAありなら),とします.といった具合に。
この作品を消化すれば、さらに第1層(入力層)の入力ウエイトに誤差を押し付ける方法がわかると思います。
1.私の理解では、グリッドには1-学習、2-認識の2つの動作モードが必要で、これらのモードは互換性がない、つまりグリッドはいつでもどちらかの状態にある。
2.長さnの入力信号のベクトルは、例えば、n本のバーのRSI値の配列V[n,3](3つの入力のグリッドの場合)ですね?そして、n+1カウントは、n+1バーの同じRSIです。その場合、RSIの過去の挙動から、将来の挙動を予測するようにグリッドを訓練します。
そうであれば、非平滑なFA関数の微分を取るところまでは、重みはすべてクリアしています。 ( というか、まだやり方がわからないだけなんですが......。隣接する2つのFA(RSI(i))点間の角度係数を取るだけかもしれません。?まあ、いいや、技術的な問題だから、そのうち解決するさ)。
1.私の理解では、グリッドには1-学習、2-認識の2つの動作モードが必要で、これらのモードは互換性がない、つまりグリッドはいつでもどちらかの状態にある。
2.長さnの入力信号のベクトルは、例えば、n本のバーのRSI値の配列V[n,3](3つの入力のグリッドの場合)ですね?そして、n+1カウントは、n+1バーの同じRSIです。その場合、RSIの過去の挙動から、将来の挙動を予測するようにグリッドを訓練します。
そうであれば、非平滑なFA関数の微分を取るところまでは、重みはすべてクリアしています。 ( というか、まだやり方がわからないだけなんですが......。隣接する2つのFA(RSI(i))点間の角度係数を取るだけかもしれません。?まあ、いいや、技術的な問題だから、そのうち解決するさ)。
F.Wasserman.Neurocomputing - Theory and Practiceに非常によく説明されています。
F. Wasserman, Neurocomputing - Theory and Practiceで非常によく説明されている。
ええ、ありがとうございます、見つけましたよ。
1.私の理解では、グリッドには1-学習、2-認識の2つの動作モードが必要で、これらのモードは互換性がない、つまりグリッドはいつでもどちらかの状態にある。
2.長さnの入力信号のベクトルは、例えば、n本のバーのRSI値の配列V[n,3](3つの入力のグリッドの場合)ですね?そして、n+1カウントは、n+1バーの同じRSIです。その場合、RSIの過去の挙動から、将来の挙動を予測するようにグリッドを訓練します。
そうであれば、非平滑なFA関数の微分を取るところまでは、重みはすべてクリアしています。 ( というか、まだやり方がわからないだけなんですが......。隣接する2つのFA(RSI(i))点間の角度係数を取るだけかもしれません。?まあ、これは技術的な問題なので、解決されるでしょう)。
1.新しいデータが到着すると、グリッドは新しい学習ベクトルで学習し、学習直後に1ステップ先の予測を行い、以下、無限大に続く。つまり、各段階でのNSの追加トレーニングの問題である。
2.3つの入力を持つメッシュは、ベクトル長n+1+3の3つの最後の読み取りを行い、それに対して全n回の1段シフトを順次行うことで学習させる。
デリバティブに問題はない。FAとして双曲線接線FA=th(x)を用いれば、そこから微分を求めても問題なく、dFA=1-th(x)^2、このニューロンの入力での補正重みは、dw=delta*(1-th(s)^2)、ここでdeltaはグリッド出力とサンプルの実値との誤差、sはグリッド出力である。
1.新しいデータが到着すると、グリッドは新しい学習ベクトルで学習し、学習直後に1ステップ先の予測を行い、以下、無限大に続く。つまり、各ステップにおけるNSの追加トレーニングの話である。
2.3つの入力を持つメッシュは、ベクトル長n+1+3の3つの最後の読み取りを行い、それに対して全n回の1段シフトを順次行うことで学習させる。
デリバティブに問題はない。FAとして双曲線正接FA=th(x)を用いると、そこから微分dFA=1-th(x)^2を求めるのは問題なく、このニューロンの入力における補正重みは、dw=delta*(1-th(s)^2)、ここでdeltaはグリッド出力とサンプルの実値間の誤差、sはグリッド出力である。
それだ!だから、再教育する必要はないんです。おお、素晴らしい!
2.3つの入力を持つグリッドは、長さn+1+3のベクトルの最後の3つのサンプルを読み、それに対して、すべてのn回を1ステップずつ順次シフトして学習させます。
ここで言い間違いがあったようです。3つの入力を持つグリッドではなく、3つのシナプスを持つニューロンで、それぞれが入力信号を受け取ります。
1synaps - th(RSI(i))
2synaps - th(RSI(i+dt))
3synaps - th(RSI(i+td*2))
1. シナプスの重みをランダムな値(-/+1)で初期化する。これは理にかなっている - 3つしかないのだから。
2.そして、各入力に入力信号のnサンプル、つまりn本前のバーの入力信号列を与える必要がある。
3.そして、n番目のバーにニューロンを出力し、入力信号のn+1個の値と比較し、その差(誤差)を符号付きで各重みに加え、ニューロンの出力がFAでなければならない。
FAからの出力であれば,FAからのプルーデントを乗じた誤差を重みに加える(n番目のバーにおいて)
4.1小節進める(n+1番目がn番目になる)、2~4を繰り返す。
質問です。
1. n = k*w*w/d ?
2.エラー値を計算するには、常にグリッド出力値からテストカウントを減算する?
やった!
続いて、学習のエポックに移りましょう。目標や手段に応じて10から1000まであり、重みの補正のベクトルを形成する方法(実際には1エポック内で可換である)、長さ nカウントの サンプル上のシナプス数wに 等しい長さを有することについてより詳細に触れる予定である。
要するに、まだ悩まないでください。
やった!
続いて、学習のエポックに移りましょう。目標や手段に応じて10から1000まであり、重みの補正のベクトルを形成する方法(実際には1エポック内で可換である)、長さnカウントのサンプル上のシナプス数wに等しい長さを有することについてより詳細に触れる予定である。
要するに、まだあまり興奮しないでください。
中性子、ちょっとタイムアウトします。もう一度すべてを考え直し、少なくとも1つのニューロンについてはコードに落とし込まなければなりません。とにかく、1日、2日、そして続きを。
ありがとうございました。