トレーディングにおけるニューラルネットワークの活用 - ページ 2

 
よくある間違いは、「レベル」と「ボリューム」の測定値を含まないことです(先物のボリューム)。
 
Neutron писал(а)>> すでに分解された時系列、つまりすべてのバーではなく、キーポイントとなりそうなものを入力としてフィードする

一般に、時系列、特に金融系の時系列を中断することは推奨されません - 情報が失われるからです....

 
StatBars писал(а)>>

シグモイド関数単体では分布は平坦にならない...。私見ですが、前処理でデータの定常性の問題を解決することの方が重要だと思います。

ところで、いただいた計算式はW=420, d=14なので、P>50400となりますが、ちょっとサンプルが大きすぎると思いませんか?

いいえ、シンモイド関数も双曲線関数も分布を均等にするものではありません。関数を適用する前と後の分布をプロットすれば、簡単に確認することができます。ここでは、特別な方法を適用する必要があります。

サンプルの "大きさ "に関しては、妥協が可能です。例えば、利用可能な履歴データの長さが小さい場合、早期に学習を停止することを推奨することが可能で、再学習の影響を避けることができるが、そのような学習方法でのNSの分類能力は、十分な大きさの履歴で学習したNSよりもいずれにしても劣ることになる。

私の経験(小)と記事では、サンプルの例の数は、あなたが提供するように依存しません...

そして、私の経験では - 矛盾はありません - すべてが理論どおりなのです。

LeoV さんが書き込みました >>1

一般に、時系列、特に金融関係の時系列は、中断することをお勧めしません - 情報が失われます....

NSの学習は複雑なため、常にアーキテクチャの複雑さと計算能力の間の妥協点を見つけることを余儀なくされています。私たちが使っているアーキテクチャの複雑さには限界があるので、当然、NSの入力の限界次元にも限界があります。結果として、入力にはある程度(最大でも他の100個)より長くないベクトルを与えることができ、データの損失と履歴の網羅性のどちらかを選択しなければならないのです。時には、できるだけ多くのことをカバーし、カバーした内容を適度な時間(AIという意味で)で理解することが重要です。

 
Neutron писал(а)>> NSの学習は複雑なため、常にアーキテクチャの複雑さと計算能力の間で妥協点を見出す必要に迫られています。私たちが使っているアーキテクチャの複雑さには限界があるので、当然、NSの入力の限界次元にも限界があります。結果として、入力に与えられるベクトルは、いくつか(多くても100の他)よりも長くないので、データの損失と歴史の網羅性のどちらかを選択しなければならないのです。時には、より多くのことをカバーし、適度な時間で理解することが重要です(AIという観点から)。

10~15個のニューロンで1500~2000本、あるいはそれ以上のバーの履歴を簡単かつスムーズに学習できるのだから、ニューラルネットワークのアーキテクチャの複雑さを追い求めるのは意味がないのだ。しかし、歴史を学べば学ぶほど、将来的に働きが悪くなる--オーバートレーニングの影響がやってくる。それよりも、シンボルの動きについてNSに正しい情報を与える「正しい」エントリーを探す方が、はるかに効果的で生産的である。

 

レオニード NSの再訓練に問題はない。それは、美しい名前と3本の釘が入ったこの箱の中で起こっていることの本質を理解していないことに起因している。ミニマムより短いトレーニングサンプルを取らないようにすれば、何が良くて何が悪いかを直感で判断する必要がなくなりますよ。

正しい」入力については、私も100%同意します。NS区で解決できることはすべて、独自に解決しなければならないのです。ソリューションにないもの、不当に難しいものを残しておく必要があるのです。例えば、Zig-Zag入力に給電しても全く意味がない。この場合のNSの振る舞いは明白で、表面にあるもの、つまりZZの肩の符号の交替を学習し、このような入力データの使用はない。

 
Neutron писал(а)>>

レオニード NSの再訓練に問題はない。それは、美しい名前と3本の釘が入ったこの箱の中で起こっていることの本質を理解していないことに起因している。最低限より短いトレーニングサンプルを取らないようにすれば、直感で良し悪しを決める必要はありません

また、サンプリングの問題もあります。FXでは、ある一定の運動法則があり、それが時間と共に変化していくことは明らかです。ですから、サンプルが大きすぎると - ネットワークはこれらの動きの法則を見つけることができません。なぜなら、サンプルが多すぎるし、小さすぎて違いすぎるからです - 彼らはすぐに再学習します。そして、それは正確な数式を見つけることは不可能です - ので、ここであまりにも多くのNSアーキテクチャの複雑さではなく、トレーダーに依存しています。

 

そうなんです。直球勝負!

実は、この問題を素直に解くと、最適なサンプリング長はP>(W^2)/d であることがわかり、市場のプロセスの非定常性を考慮すると、最適なのは

P=(4-8)*(W^2)/d.これが、あなたの言っていることです。

 
Neutron писал(а)>>

変換前、変換後、同じサンプルからの写真ではなく、それにもかかわらず、効果は同じである何回もそれを行っている:これは、おおよそ何が起こるかです...。

 

レベルであることがわかります。

しかし、シグモイドなどの関数で入力信号に影響を与えるだけでは、そのようなことは起こりえません。もっとも、下図の左右の軸を、ヒストグラムの最後のバーの半分の距離だけ(見るために)伸ばすと、奇跡は消え、鐘が見えるようになります。

さもないと、分析に穴があいてしまいます。

 
Neutron писал(а)>>

今ですらそうなんですから。

でも、そんなことはありえない。もっとも、下図の左右の軸をヒストグラムの最後のバーの1.5倍(見るために)に伸ばすと、奇跡は消え、鐘が見えるようになります。

まあ、そうでなくても解析にパンクしそうですが。

写真では、正規化されたデータではなく、異なるデータに加え、私はちょうど私が何をしたかの例を示した(それは結果で見るように)である

そして、これがそのスクリプトだ。これを使って、出力がどのようになるかを見ることができる(ただし、入力データにはあまりこだわらないこと-このスクリプトは、あくまでも例として作られたものなので...)。

//タイプ 0 - 線形正規化、1 - 非線形正規化

ファイル: