市場のエチケット、あるいは地雷原でのマナー - ページ 11

 
Neutron >> :

そうなんです。

しかし、各パーセプトロンの入力には、一定の+1オフセットの入力が別に追加されている。これにより、学習のスピードアップとGridのパワーアップを実現しています。

あるいは、入力層を数えないのであれば、すべてを言った上で。



間違いがあれば、訂正してください。

 
Neutron >> :

そうなんです。

しかし、各パーセプトロンの入力には、一定の+1オフセットの入力が別に追加されている。これにより、学習のスピードアップとネットワークのパワーアップを実現しています。

設定可能なパラメータを増やさずに、ニューロンの閾値を置き換えるギミックのようなものでしょうか。かっこいい!初めて見たけど気に入った :)

 

また、各ニューロンの入力にある一定のバイアスはどこにあるのでしょうか?

paralocus писал(а)>>

私が理解した限りでは、図には市場に最適なNSアーキテクチャが示されていますね。

これが私の理解です。もしかしたら、そんなことはないのかもしれません。しかし、数値実験の結果は、この言葉を裏付けている。

入力の数は12、シナプスの数は4なので、Popt=k*w*w/d の式で、144/4=36...となる。これは36本ですか?またはBuy/Sellに近い36の状況?ちゃんと理解できたかな?

よく考えてみてください:あなたのアーキテクチャのすべてのシナプスの数:w=12+4=16。

入力数:d=3(4*3ではなく、3のみ)。

最適な学習サンプルの長さ:Popt=k*w*w/d=4*16*16/3=340サンプル/時系列(各入力ニューロンで4サンプルずつ持っていることになります)。バーやインジケータ値であったり、トランザクションのサンプルであったり、予測可能性を高めるためにどちらが良いかはあなた次第です...。予測可能性は、4次までのMTSの収益率の一部であることを忘れないでください非常に強い相関がある(冒頭のこのトピックを参照)。

 
paralocus писал(а)>>

あるいは、入力層を数えないのであれば、言われたことをすべて考慮する。

間違いがあれば、訂正してください。

意味がわからない!

なぜ、入力層をカウントしないのですか?学習や予測に関与していないのですか?

隠れ層(別名:入力層)と出力層の2層にするのがベストです。このアーキテクチャでは、w=4*4+5=21、d=4、P=4*21*21/4=440カウントとなります。

 
TheXpert писал(а)>>

調整できるパラメータを増やさずに、ニューロンの閾値を置き換えるギミックのようなものでしょうか。

FION さんが書き込みました >>1

なるほど。定数オフセットは、ハイパータンジェントカーブ上の活性化点をわずかに移動させるだけである。

一般的には正しいが、正確には、NSの入力に別のデータのバッチが到着したとき、それが中心でない(MO!=0)ことを意味する。そのため、各ニューロンに追加の定数入力を導入しています。学習過程において、特定のニューロンは、入力データの可能な限りのシフトを補償するために、この入力における重みの値を選択する。これにより、(架空の雲の中心から)統計的に高速な学習が可能になる。

 
Neutron >> :

また、各ニューロンの入力にある一定のバイアスはどこにあるのでしょうか?

それが私の考えです。これは事実とは異なるかもしれません。しかし、数値実験の結果は、この言葉を裏付けている。

慎重に数えよう:あなたのアーキテクチャの全シナプス数:w=12+4=16

入力数:d=3(4*3ではなく、3のみ)。

最適な学習サンプルの長さ:Popt=k*w*w/d =4*16*16/3=340サンプル/時系列(各入力ニューロンで4サンプルずつ持っている)。バーやインジケータ値であったり、トランザクションのサンプルであったり、予測可能性を高めるためにどちらが良いかはあなた次第です...。予測可能性は、4次までのMTSの収益率の一部であることを忘れないでください非常に強い相関がある(冒頭のこのスレッドを参照)。

Popt=k*w*w/d、ここでkは1次の無次元定数であり、市場が不安定であることを考慮したものである。

この式で、dは隠れ層の1つのニューロンの入力数、kは隠れ層のニューロン数?すみません、ネットワークが340本のバーで学習できるとは、なんとなく信じがたいのです。とても小さいのですが...。何か勘違いしていたようです。

これまで私は、MT4端末のテスターで遺伝的アルゴリズムを用いて「学習」させる最も単純なパーセプトロンしか知りませんでした。少なくとも、ある程度の(2、3ヶ月)履歴を確認する必要があります。もちろん、遺伝学者がパーセプトロンに何かを教えるわけではなく、最適な係数を選ぶだけで、盲目的に行動しているため、非常に低い効果しかないことは理解しています。まあ、気にしないでください。歌詞の余談でしたね。


シングルインプットも独自の重み付け係数を持つべきという理解で合っていましたか?また、入力を「ホワイトリスト」に登録するにはどうすればよいのでしょうか?つまり、入力に0.21という高い期待値を持つハイパータンジェントで正規化されたRSIがあるとします。f(t) = th(RSI(i)*kf), ここで kf > 1 は入力信号のいくつかの歪みの代償として確率密度関数を平準化する特別に選択された係数です, それは大丈夫でしょうか、そうではありませんか?

トランザクションカウントとは何ですか?

 
Neutron >> :


ところで、ご興味のある皆様へ:「損失を確定して利益を伸ばす」または「利益を確定して損失を伸ばす」(市場がトレンドか横ばいか、選択した取引期間に応じて)戦略は、資本を再投資する場合には最適ではありません。この場合、再投資で各ステップに固定する方が得策ですすなわち、10回連続して利益を得る取引があれば、1つのポジションをずっと維持してスプレッドを節約するよりも、証券会社に手数料を支払って再投資する方が得策である。

このようなパラドックスは、私たちを取引バーヌリングとその後に導くかもしれない - パラメータ化の問題なしに分析形式(ビンスとは異なります)の取引の基本的な方程式の効果的な使用へ。

これはパラドックスというより、再投資を伴うMMの特性である。このMMの効率は、特に取引回数に依存する。このMMの収益性は、取引回数の度合いで幾何平均しています。取引回数が少ないと収益性は単純なMMに負けるが、取引回数が多くても何とか生き残る(ロングプレイ)ことができれば、リターンを大きくすることができる。しかし、いつものことですが、無償で提供されるものはありません。その代償として、非対称のレバレッジとその結果、単純なMMに比べて長期の低収益が発生するのです。

 
paralocus писал(а)>>

Popt=k*w*w/d、 ここでkは 1次の無次元定数であり、市場の変動という事実を説明するものである。

では、この式でdは 隠れ層の1ニューロンの入力数、kは 隠れ層のニューロン数でしょうか。すみません、ネットワークが340本のバーで学習できるとは、なんとなく信じがたいのですが。とても小さいのですが...。何か勘違いしていたようです。

これまで私は、MT4端末のテスターで遺伝的アルゴリズムを用いて「学習」させる最も単純なパーセプトロンしか知りませんでした。少なくとも、ある程度の(2、3ヶ月)履歴を確認する必要があります。もちろん、遺伝学者がパーセプトロンに何かを教えるわけではなく、最適な係数を選ぶだけで、盲目的に行動しているため、非常に低い効果しかないことは理解しています。まあ、気にしないでください。歌詞の余談でしたね。

単体入力も独自の重み付け係数を持つべきということでよかったでしょうか。また、入力の「ホワイトリスト化」はどのようにすればよいのでしょうか。入力に0.21という高い期待値を持つハイパータンジェント正規化RSIがあるとします。f(t) = th(RSI(i)*kf), ここで kf > 1 は入力信号のいくつかの歪みと引き換えに確率密度関数を平準化する特別に選択された係数です, それは大丈夫でしょうか?

トランジェントカウントとは 何ですか?

パラロカス、 ミスが怖いのか?落とせ!- こうしてみよう、ああしてみようと、結果を見れば、すべてがうまくいく。

kは ニューロン入力の数ではなく、Marketの経験的な特性、つまりその変動性であり、2〜4の範囲で選ばれる。もし市場が定常的であれば、kは 10でも20でもよく、これはネットワークの学習過程における漸近法に行くことを意味する。残念ながら、市場は非定常性においてのみ定常と呼べるので、NSの再学習の過程では係数をできるだけ小さくとる必要がある。したがって、上記のkの範囲が得られる

あなたの遺伝学者は、(私の記憶が間違っていなければ)勾配降下の要素を持つ一種の確率的な学習方法です。悪くはないが、学習スピードの点ではOROに負ける。遺伝学者を捨てて、誤差の逆伝播を支持する - 学習はより効率的になり、ネットワークの入力とシナプスの数には制限がない。

単一入力はその係数を持つが、これは通常通り学習され、他の入力と性質が異なることはない。

入力のブリーチングとは、入力間の相関依存関係をなくすことである。この手順を使うには、まずこの相関関係そのものを自分に納得させることです。

取引、とは市場で資産を売買する行為、つまりトランザクション、賄賂(犯罪的な意味ではない:-)です。

 
Neutron >> :

遺伝学を放棄し、誤差の逆伝播を採用 - 学習はより効率的になり、ネットワークの入力とシナプスの数に制限はない。


もういい、あきらめた。OROでグリッドを書くために座った。ETAそのものに疑問があるかもしれません。

 
paralocus писал(а)>>

ETAそのものに疑問があるかもしれません。

問題なし!

ところで、あなたのNetworkのアーキテクチャをもう少し詳しく見てみましょう。

あなたは、出力ニューロンで接続された3つの独立した二層ネットワークからなる委員会を持っています(だから委員会)。委員会の各グリッドには、入力に1つのニューロンしか含まれませんが、これは間違いです。このようなアーキテクチャは、計算能力において単層ペルセプトロンと違いがないからです。そのため、12入力ではなく、3入力(バイアス込みで4入力)になっていますね。もう一度言いますが、一般投票による議長(出力ニューロン)が「正しい」答えを選び、投票者はそれぞれ1つのニューロンで表現されるという、取締役会アナログを作成したことになります。このようなアーキテクチャでは、取引上の優位性を確保することはできない。右のように、各委員に少なくとも2つの入力ニューロンを与えることで、FAのヌリティ特性を十分に活用することができ、委員会の予測力を顕著に向上させることができます。

AIと私たちの共通点が見えてきましたね...。実際、コムソモールの集会での投票は、最小のコストで最速の目標達成という点で、集団行動の最適なスキームにほかならないのです

なお、委員会の出力は非線形活性化関数を持たず、単なる加算器であり、その機能は投票結果に基づいて決定を下すことである。つまり、このアーキテクチャはあなたのアイデアに最も近く、1つの隠れ層を持つ2層非線形ネットワークの委員会です。隠れ層のニューロン数を増やすと予測精度は向上するが、学習サンプル長は2次関数的に増加し、すぐにスケールダウンの効率が低下し、ネットワークの予測能力の劣化につながる点にも注意が必要である。私の数値実験の結果、最適なのは隠れ層に2〜4個のネロンを入れないことです。

与えられたアーキテクチャの場合、最適な学習サンプル長P=1500サンプルとなる。

P.S.見た目はいいんですけどね。写真のことです。エステの快感を得る!