市場のエチケット、あるいは地雷原でのマナー - ページ 15

 
Neutron >> :

数式はインターネット上に豊富にある文献で自分で調べることができます。

あまり急がないようにしましょう。そして、「非線形学習」など、いろいろな工夫をして人生を複雑にしようとしないでください。それは、邪悪なものからです。シンプルさと調和の中にある美しさと信頼性!

救え、そして慈悲を...。

 
:-)
 
Neutron >> :

ゆっくりでいいんです。そして、「非線形学習」などという、いろいろな工夫で人生を複雑にしようとしないことです。シンプルさと調和の中にある美しさと信頼性!

Ы?定番中の定番ですね。ともあれ、お先に失礼します。

 
Neutron >> :

長さnサンプルの入力信号のベクトル(一次元とする)があり、n+1サンプルをNetworkの学習の質のテストとする。このベクトル(n個のサンプル)を与え、すべての重みを一様確率密度分布の±1の範囲のランダムな値に等化し、グリッドの出力がどうなったかを見るのである。仮に+5.1とし,n+1カウント(学習ベクトル上の学習済みグリッドが目指すべき値)+1.1を調べ,得られた値と目指すべき+4の差を取り,この値を符号を保ったまま出力ニューロンの各重みに加える(FAなしなら),またはこの値からFAの微分を求めて入力ニューロンの重みに加える(FAありなら),とします.といった具合に。

この作品を消化すれば、さらに第1層(入力層)の入力ウエイトに誤差を押し付ける方法がわかると思います。

1.私の理解では、グリッドには1-学習、2-認識の2つの動作モードが必要で、これらのモードは互換性がない、つまりグリッドはいつでもどちらかの状態にある。


2.長さnの入力信号のベクトルは、例えば、n本のバーのRSI値の配列V[n,3](3つの入力のグリッドの場合)ですね?そして、n+1カウントは、n+1バーの同じRSIです。その場合、RSIの過去の挙動から、将来の挙動を予測するようにグリッドを訓練します。

そうであれば、非平滑なFA関数の微分を取るところまでは、重みはすべてクリアしています。 ( というか、まだやり方がわからないだけなんですが......。隣接する2つのFA(RSI(i))点間の角度係数を取るだけかもしれません。?まあ、いいや、技術的な問題だから、そのうち解決するさ)。

 
paralocus писал(а)>>

1.私の理解では、グリッドには1-学習、2-認識の2つの動作モードが必要で、これらのモードは互換性がない、つまりグリッドはいつでもどちらかの状態にある。

2.長さnの入力信号のベクトルは、例えば、n本のバーのRSI値の配列V[n,3](3つの入力のグリッドの場合)ですね?そして、n+1カウントは、n+1バーの同じRSIです。その場合、RSIの過去の挙動から、将来の挙動を予測するようにグリッドを訓練します。

そうであれば、非平滑なFA関数の微分を取るところまでは、重みはすべてクリアしています。 ( というか、まだやり方がわからないだけなんですが......。隣接する2つのFA(RSI(i))点間の角度係数を取るだけかもしれません。?まあ、いいや、技術的な問題だから、そのうち解決するさ)。

F.Wasserman.Neurocomputing - Theory and Practiceに非常によく説明されています。

 
Vinin >> :

F. Wasserman, Neurocomputing - Theory and Practiceで非常によく説明されている。

ええ、ありがとうございます、見つけましたよ。

 
paralocus писал(а)>>

1.私の理解では、グリッドには1-学習、2-認識の2つの動作モードが必要で、これらのモードは互換性がない、つまりグリッドはいつでもどちらかの状態にある。

2.長さnの入力信号のベクトルは、例えば、n本のバーのRSI値の配列V[n,3](3つの入力のグリッドの場合)ですね?そして、n+1カウントは、n+1バーの同じRSIです。その場合、RSIの過去の挙動から、将来の挙動を予測するようにグリッドを訓練します。

そうであれば、非平滑なFA関数の微分を取るところまでは、重みはすべてクリアしています。 ( というか、まだやり方がわからないだけなんですが......。隣接する2つのFA(RSI(i))点間の角度係数を取るだけかもしれません。?まあ、これは技術的な問題なので、解決されるでしょう)。

1.新しいデータが到着すると、グリッドは新しい学習ベクトルで学習し、学習直後に1ステップ先の予測を行い、以下、無限大に続く。つまり、各段階でのNSの追加トレーニングの問題である。

2.3つの入力を持つメッシュは、ベクトル長n+1+3の3つの最後の読み取りを行い、それに対して全n回の1段シフトを順次行うことで学習させる。

デリバティブに問題はない。FAとして双曲線接線FA=th(x)を用いれば、そこから微分を求めても問題なく、dFA=1-th(x)^2、このニューロンの入力での補正重みは、dw=delta*(1-th(s)^2)、ここでdeltaはグリッド出力とサンプルの実値との誤差、sはグリッド出力である。

 
Neutron >> :

1.新しいデータが到着すると、グリッドは新しい学習ベクトルで学習し、学習直後に1ステップ先の予測を行い、以下、無限大に続く。つまり、各ステップにおけるNSの追加トレーニングの話である。

2.3つの入力を持つメッシュは、ベクトル長n+1+3の3つの最後の読み取りを行い、それに対して全n回の1段シフトを順次行うことで学習させる。

デリバティブに問題はない。FAとして双曲線正接FA=th(x)を用いると、そこから微分dFA=1-th(x)^2を求めるのは問題なく、このニューロンの入力における補正重みは、dw=delta*(1-th(s)^2)、ここでdeltaはグリッド出力とサンプルの実値間の誤差、sはグリッド出力である。

それだ!だから、再教育する必要はないんです。おお、素晴らしい!

2.3つの入力を持つグリッドは、長さn+1+3のベクトルの最後の3つのサンプルを読み、それに対して、すべてのn回を1ステップずつ順次シフトして学習させます。


ここで言い間違いがあったようです。3つの入力を持つグリッドではなく、3つのシナプスを持つニューロンで、それぞれが入力信号を受け取ります。

1synaps - th(RSI(i))

2synaps - th(RSI(i+dt))

3synaps - th(RSI(i+td*2))

1. シナプスの重みをランダムな値(-/+1)で初期化する。これは理にかなっている - 3つしかないのだから。

2.そして、各入力に入力信号のnサンプル、つまりn本前のバーの入力信号列を与える必要がある。

3.そして、n番目のバーにニューロンを出力し、入力信号のn+1個の値と比較し、その差(誤差)を符号付きで各重みに加え、ニューロンの出力がFAでなければならない。

FAからの出力であれば,FAからのプルーデントを乗じた誤差を重みに加える(n番目のバーにおいて)

4.1小節進める(n+1番目がn番目になる)、2~4を繰り返す。


質問です。

1. n = k*w*w/d ?

2.エラー値を計算するには、常にグリッド出力値からテストカウントを減算する?

 

やった!

続いて、学習のエポックに移りましょう。目標や手段に応じて10から1000まであり、重みの補正のベクトルを形成する方法(実際には1エポック内で可換である)、長さ nカウントの サンプル上のシナプス数wに 等しい長さを有することについてより詳細に触れる予定である。

要するに、まだ悩まないでください。

 
Neutron >> :

やった!

続いて、学習のエポックに移りましょう。目標や手段に応じて10から1000まであり、重みの補正のベクトルを形成する方法(実際には1エポック内で可換である)、長さnカウントのサンプル上のシナプス数wに等しい長さを有することについてより詳細に触れる予定である。

要するに、まだあまり興奮しないでください。

中性子、ちょっとタイムアウトします。もう一度すべてを考え直し、少なくとも1つのニューロンについてはコードに落とし込まなければなりません。とにかく、1日、2日、そして続きを。

ありがとうございました。