市場のエチケット、あるいは地雷原でのマナー - ページ 83

 
paralocus писал(а)>>

閾値Hを持つティックBPの最適なケイジ分割は、一連の取引の連続する単色の肩の数が最小となる分割と考えるべきでしょう。

もし、得られた取引列の分布が、連続する肩の50%以上が異なる色になるようなものであれば、なぜNSを全く使わないのでしょうか。

そうなんです。確かに、あなたがおっしゃるようなケースは、非効率的な市場に対応するものであり、その中で人はお金を稼ぐことができるし、そうすべきです。トランザクション系列(RT)をターミナル時間(系列のカウントダウンだけ)と切り離してプロットすると、その効果は最も顕著に現れる。

まさにそのようなエリア(H+/-戦略でも同じように見える)は、Pastukhovの論文に書かれているかぎ型ビルドをベースにしたTCで釣られているのである。しかし、このようなTSは(仲介手数料に比べ)収益性が低いという問題がある。それは、古典的な戦略が、かぎ陣形の最も単純でわかりやすい性質であるPTの反転を利用していることと関係しているのですが、他にも規則性があるようで...。をNSが識別できるようにすることだ!

 
Neutron >> :

他のパターンもありますし...。ということを、NSは検出できるはずなのです。

この点について、もう少し詳しく教えてください。肩幅以外考えられない(NSとかぎを考えた場合)

だから、ちょっと困っているんです。

1,-1,+1,-1,+1,-1,-1...の数で学習するNSがあるとする。(すなわち、バイナリ入力)。この場合、3回分の学習量から80%程度の精度で推測することができます。NSの非直線性は関係ない。

 

私も皆さんと同じように、いくつかの疑問に対する答えを知りたいのです

バイナリーNSの仕組みを見てみましょう。仮に学習ベクトルがあるとする。このようなNSが出力誤差を最小化するためにできることは、可能なすべての入力の組み合わせに対する結果の確率を計算することである。わかりやすくするために、入力が3つあるとすると、すべての入力の組み合わせは以下のパターンに還元される(美しさのために、+/-1から0/1までとする)。

000

001

010

011

100

101

110

111

学習ベクトル Pを 入力数dの 数倍とすると、NSは単純に各パターンで1を落とす確率pを 計算する(0を落とす確率は1-pである)。でも、NSがなくてもできるんです!ここで一つ、微妙な点があります。つまり、学習ベクトルに組み合わせがない場合はどうするのか?このパターンを現実にどう割り振るのか。- 何もない!ベクトル Pの 長さは、それ(パターン)に出会うまで長くする必要があります。また、利用可能なデータが十分にあるかどうか、あっても最適な学習長からなんとか抜け出せないということもないとは言えません。わかるか?そこで、NSのアドバンテージが発揮されるのです。その結果、(あらゆる場面で)すべてのトレーニングを必要とせず、利用可能な知識を最大限の汎化信頼性で汎化できることがわかったのですつまり、あるパターンに対して、それまでなかったトレーニングプログラムでも、最も可能性の高い結果を勝手に再構築してしまうのです。大人と同じで、あれこれ判断するのに前例は必要ないのです。

つまり、利用可能なデータ(入力)を、学習時に特徴 空間に構築したある超曲面に投影することで判断を行うことになる。この曲面は多次元(入力数による)であり、平面、または高次の曲面(放物線、3次元の双曲面など)であることができる。非直線性の存在によって、複雑な表面トポロジーが可能になり、入力が2値であることは問題ではなく、重要なのは、それが非自明な表面に投影されることである。

だから、2値入力でも非線形性が作用するのだと思います。

 
ああ、わかったよ。考え方はひとつです。Y軸の一連の取引の次のレバレッジの投影係数がn>1スプレッドである確率を計算する必要があります。そして、賄賂の大きさをレバレッジの長さのMOとして計算すると、同じようにストップがかかる。統計ではそれしか出せないが、+である。
 

非線形FAを用いた隠れ層の誤差計算が少しわかりにくいのですが。隠れ層の誤差が正しくとれているか確認してください。

ここで、隠れ層の出力における誤差が、対応する出力層のシナプスの微小補正の値に等しいという事実に困惑しています。

 

いや、大丈夫じゃない!?

1.NSの出力-OUTを 探す。その通りです。

2.NSの誤差を計算する:dOUT=x-OUT 。この誤差を知った上で、出力ニューロンの補正重みの値を求めよ。これも正解です。

3. 同じ誤差が隠れ層の各i 番目の ニューロンの出力(入力)にある場合、式によって入力に再計算します。dIn[i]=dOUT*(1-out[i]^2),out[i] は隠れ層のi 番目の ニューロンの出力.各ニューロンの入力にもたらされる誤差(dIn[i])を知ることで、入力層の補正重みの値を求めます。

 

1層で100〜120エポックを出していました。2層では、おそらく物足りないのでしょうか?コチエ(時計盤)ではまだ良い結果は出ていません。


 
paralocus писал(а)>>

コティラ(時計)の彼女は、何かまだ良い結果を出していないようです。

何か違うことを期待している?

 
Neutron >> :

何か違うことを期待していたのでしょうか?

正直、そうですね。つまり、一重が効いていたんです。さすがにタイムフレームはいい加減やめた方がいいけどね。

 
paralocus писал(а)>>

1層で100〜120エポックを出していました。2層では、おそらく物足りないのでしょうか?コチエ(時計仕掛け)ではまだ良い結果が得られていない。

一重の話じゃなかったっけ...?

チャペルでは2層で常にth<0.05を出し、1層は0付近で出しているんです。