市場のエチケット、あるいは地雷原でのマナー - ページ 26

 

少し休んでみます〜:)

図書館に行こうか...。

 
registred писал(а)>>

各ステップでの再トレーニングというのがよくわからないのですが?

NSを使った予測は、1カウント先までしか行いません。そして、予測の精度を落とさないように、新しい入力データを使ってネットワークの再トレーニングを行うなどしています。このような場合、グリッドを「ゼロから」再トレーニングすることはできませんが、古い重みの値を新しいカウントダウンの開始値として保持することができます。

これはまさに私が考えていたことです。

 

中性子 振幅予測から符号予測にすると、グリッド出力の誤差は符号の誤差であることがわかります。つまり、誤差は+1または-1の値をとる。

この点については、正しく理解されていますか?そうでない場合は、どのように?

 
Neutron >> :

NSを1カウントだけ先読みして予想を立てています。そして、予測の精度を保つために、新しい入力データを使ってグリッドを再トレーニングする、などです。このような場合、グリッドを「ゼロから」再トレーニングすることはできませんが、古い重みの値を新しいカウントダウンの開始値として保持することができます。

これはまさに私が考えていたことです。

フラット-ネットワークで予報の見通しが変わるのでは?

 
Jingo писал(а)>>

フラットな んでしょうかね~、ネットワークの予報の見方が変わるんでしょうかね?

もちろん、そうです。本来は適応的なものです。

それから、フラットというのは、基本的にはトレンドと同じで、小さくなるだけなのですが......。つまり、NSが新しい/変化したトレードホライズンに適応しているかどうかというご質問ですね。それが彼女の直接的な責任です。再トレーニングをするときに、すでに「新しい」マーケットで「古い」重みの値を使うということは、逆にプロセスそのものを損ねることにはならないのです。問題は、トレンドを変える(正確に変える)プロセスが準定常的であるため、選択された戦術が自己を正当化することである。

paralocus さんが書き込みました

Neutron、振幅予測から符号予測に切り替えると、グリッド出力の誤差が符号の誤差になることが判明しました。すなわち、誤差は+1または-1の値をとる。

この点は正しく理解されていますか?そうでないとすれば、それは何でしょうか?

いいえ、そんなことはありません。

ネットワークの学習プロセスは古典的なケースと変わりませんが、違いは、ニューロンの隠れ層の入力でバイナリ信号を与え、出力は間隔[-1,1](出力ニューロンth()の活性化の場合)とイベント発生の確率に比例して決定実数値です(予想増分の符号のネットワークの確実性)。確率に興味がなく、予想されるコテツの動きの符号だけに興味があるのなら、予測の符号だけを解釈して、実数でネットワークを訓練する(ORO法の誤差は実数でなければならないという意味です)。この方式では、一般的な場合と比べて学習率が上がるというのは、決してパラドックスではない。入力に2値信号を与えることで、NSが学習すべき入力特徴空間の次元を大幅に減らすことができる点である。比較:0.001 刻みで +/-1 または -1 から 1 のいずれかであり,各値は以前に同じ NS によって構築した次元d (入力数)の超曲面上に配置しなければならない(これは学習中に行われる).

 
Neutron >> :

...バイナリ信号を隠れ層のニューロンに与え、出力は区間[-1,1]で定義される実数値とする。

それだ!そんなこと、思いもよらないでしょう!?>> 今からやってみます(笑)

 

...比較:0.001 刻みで +/-1 または -1 から 1 のいずれか,そして各値は,以前に同じ NS によって構築した次元d (入力数)の超曲面上に配置しなければならない(これは学習中に行われる).


また、入力が2値信号の場合、0/1にした方が良いのでは?

 

もちろん、そんなことはありません。

このような「入力」の重心は0.5(そのMO)だけ移動し、入力は初期状態ではMO=0です。だから、当たり前のことを当たり前に合わせるために、ニューロンの単一入力の空引き(重みの調整)にリソースの一部を使うことになる。一般的に、AIが参加しなくても独自にできることはすべて行うべきとされています。これにより、NSの学習時間を大幅に短縮することができます。このために、入力の正規化、センタリング、ホワイトニングを行います。これらはすべて、些細なことでAIの注意をそらさないように、最も重要で難しい、非線形多変量相関と自己相関に 集中するためだ。

 

ああ、わかったよ。

現在、2層の自己学習型ペルセプトロンに手を加えているところです。うまくいけば、今日中に稼動できるかもしれません。

 
paralocus писал(а)>>

今日までに稼働してくれるといいのですが。

期待しないでください :-)

私の経験では、実際に効果が出るまでに、あと20~25回は同じことを言う覚悟が必要です。