市場のエチケット、あるいは地雷原でのマナー - ページ 14

 
Neutron >> :

これが最大の間違いです。その横柄な態度は市場から罰せられるぞ!?

マーケットと一緒に、そのルールに則ってのみプレイすることができます。そして、そのゲームを気に入れば、ご褒美をくれる。

個人の資質を、しかも大文字で市場に帰していないか?:)

市場は荒野である。海との例えが私には非常に適切なように思える。

 

冗談です:-)

市場はランダムでどこかの準定常的なプロセスに過ぎないことは分かっています。そして、TSの課題は、ある種の定常性を見出し、それを利用することに尽きる。

sealdo писал(а)>>

例えば「日」「週」などのボラティリティから目標値(TP、SL)を算出し、相場に合わせてスムーズに変化させる方法はないでしょうか。

これらの値は市場を特徴づけるものであり、TSを履歴で実行することによってのみ評価することができる。
 
Neutron >> :

冗談です:-)


真面目なオッサンが多いなー。冗談です...>>:)

Neutron、OROについていくつか質問があります。誤差の値がニューロンに入力されると、その誤差を入力の重みの総和に占める割合に応じてすべての重みで分割するという理解でいいのでしょうか?

つまり、誤差の値±Erを取り、入ってくるシナプスの重みを全てSw1 = SUM(w1+w2+w3+... wn)とし、それぞれの割合(総重量における)を計算するのです

Dw1 = w1/(Sw1/100) そして、全重量に占める割合に応じて全重量に+/-Erを配分する: wi = wi +/- Dwi *Er これは正しいのでしょうか?もしそうなら、この分布を線形ではなく、指数関数的にすることは可能でしょうか?結局、生物系では「ボーナス」と「スラップ」、つまりエラーとボーナスは「最初」と「最後」の間で全く直線的に分配されないのである。

2つ目の質問です。

エラー値はどこから出ているのですか?この値の符号は何でしょうか?前取引の損失額を「エラー値」とすることは可能か?

 
paralocus >> :

ニューロンには誤差が入力されると、その誤差を入力の重みの総和に占める割合に応じて、すべての重みに分配するという理解でいいのでしょうか。

いいえ、分割するのではなく、分配するのです。誰かがそうしたいからそうするのではなく、目的関数を最小化した結果としてそうなるのです。

これを踏まえて--。

その場合、この分布を線形ではなく、例えば指数関数的にすることは可能でしょうか?結局、生物系では「ボーナス」と「スラップ」、つまりエラーとボーナスは、「最初の人」と「最後の人」の間で、まったく直線的に分配されないのである。

この仮定は、学習速度が遅くなったり、総誤差が発散したりする可能性が高い。

 
TheXpert >> :

いや、そうではなく、伝播するのです。そして、それは誰かが望んだからではなく、目標関数を最小化した結果としてそうなるのです。

これを踏まえて--。

この仮定は、学習が遅くなったり、総誤差に齟齬が生じたりする可能性が高い。

予測可能性が高まるか?

 
paralocus писал(а)>>

Neutron、OROについて質問です。ニューロンには誤差が入力されると、その誤差を入力の重みの総和に占める割合に応じてすべての重みで分割するという理解でいいのでしょうか。

つまり、誤差±Erの 値を取り、入力シナプスの重みを全てSw1 = SUM(w1+w2+w3+... wn) とし、それぞれのシェア(総重量における)を計算します。

Dw1 = w1/(Sw1/100) 次に、総重量に占める割合に応じて、すべてのウェイトに+/-Erを分配します:wi=wi +/- Dwi *Er これは正しいのでしょうか?もしそうなら、この分布を線形ではなく、指数関数的にすることは可能でしょうか?結局、生物系では「ボーナス」と「スラップ」、つまりエラーとボーナスは「最初」と「最後」の間で全く直線的に分配されないのである。

2つ目の質問です。

そもそも誤差の値はどこから来るのでしょうか?この値の符号は何でしょうか?過去の取引における損失額を「エラー値」とすることは可能か?

いや、そんなことはないんです。

あなたのようなグリッド委員会ではなく、通常の2層グリッドを考えてみましょう。そうすれば、一般化できる。

長さnサンプルの入力信号のベクトル(一次元とする)があり、n+1 サンプルはグリッドの学習の質をチェックするものであるとする。このベクトル(n個の サンプル)を与え、すべての重みを一様確率密度分布の範囲+/-1のランダムな値に等化し、グリッドの出力を見るのです。仮に+5.1とし,n+1 カウント(学習ベクトル上の学習済みグリッドが目指すべき値)+1.1を調べ,得られた値と目指すべき+4の差を取り,この値を符号を保ったまま出力ニューロンの各重みに加える(FAなしなら),またはこの値からFAの微分を求めて入力ニューロンの重みに加える(FAありなら),とします.といった具合に。

この作品を消化すれば、さらに第1層(入力層)の入力ウエイトに誤差を押し付ける方法がわかると思います。

 
Neutron >> :

いいえ、そんなことはありません。

数式でやったほうがいいのでは?ここでの計算は複雑ではありません。

paralocus>>:

予測可能性が高まるか?

ありえない。

 
TheXpert >> :

いや、そうではなく、伝播するのです。そして、それは誰かが望んだからではなく、目標関数を最小化した結果としてそうなるのです。

これを踏まえて--。

この仮定は、学習が遅くなったり、総誤差に齟齬が生じたりする可能性が高い。

また、Er = e(w1*x) + e(w2*x) + ...とすると、なぜ総誤差にズレが生じるのでしょう?e(wn*x)?いいえ、累積誤差は入力誤差と同じになります。

 
TheXpert писал(а)>>

数式でやったほうがいいのでは?ここでの計算は複雑ではありません。

数式はインターネットにたくさんある文献で自分で調べることができます。

あまり急がないようにしましょう。そして、「非線形学習」など、いろいろな工夫をして人生を複雑にしようとしないでください、それは邪悪なものからです。シンプルさと調和の中にある美しさと信頼性!

 
Neutron >> :

この作品を消化したら、次は第1層(入力層)の入力ウエイトに誤差を押し込む方法をお伝えします。

醸造に行く...