市場のエチケット、あるいは地雷原でのマナー - ページ 87

 
Neutron писал(а)>>
私はこのタスクをNSの手に委ね、NSは分析に基づいて、できるだけ「短い」履歴(それでも履歴、TAで他に何を使うことができますか)で、方向(H+)または反対(H-)に開くことを決定します。

そうすると、論文もあまり残らないのでは?

そして、パーセプトロンは、あなたによると、e.方向だけを予測します。

 
M1kha1l >> :

そうすると、論文もあまり残らないのでは?

そして、パーセプトロンは、あなたによると、e.方向だけを予測します。

だから、私たちは論文に興味があるのではなく、利益に興味があるのです...。 同じ理由で、方向(次の基準点の符号)以外は知る必要がないのです。

 

シェパードパターンも同じではないか?

統計で分析するか、ネットで分析するかで、何が変わるのか...。

 
gpwr писал(а)>>

私のネットワークには300の学習例が与えられ、重みの数は45であった。文献上では、学習例が重みの5倍あれば、95%の確率でネットワークが汎化されるという見解がある。つまり、私のネットワークは理論的には良い汎化性を持っているはずなのですが、実際はそうではないのです。そのため、例を挙げて確認したのです。ここで重要なのは、トレーニング例を多くとることではないと思うのです。ネットワークに無理やり解決させる問題の本質についてです。もし、ネットワークに次の段階の価格の大きさを予測させようとすると、予測された段階と入力された過去の段階の間の比例関係を維持するために、活性化関数の線形領域でニューロンが動作するような重みに訓練ではなりがちです。つまり、課題そのものがリニアなのです。この状態を考えると、隠れニューロンを追加しても何も改善されない。そして、隠れ層そのものが不要になる。自分のネットワークで実験してみたところ、1層でも2層と同じように使えるという結論に達しました。このスレッドの過去の投稿を読むと、EURUSDについても同じ結論に達しているように思います。

このネットワークは、ニューロンの活性化関数が千鳥足で選べるような、高度に非線形な問題(XORや分類問題など)に使うべきだと思います。

もし難しければ、NSを訓練したサンプル(.rar)を送ってください。サンプルは10000例程度です。あるいはそれを形成するコード...

ネットワークに登録したサンプルの第一印象では、入力と出力の間に強い線形関係があり、したがってネットワークは線形ソルバーとして機能する...

//----

サンプリングについて:学習に十分なサンプルを決める方法はありますが、ネットワーク(10-21-8-1)は5万サンプル、10万サンプルで再学習が可能ですが...。

だから、クロスバリデーションで学習したほうがいいんです...。

 
paralocus писал(а)>>

気になるのは論文ではなく、利益なのだが......。同じ理由で、方向(次のカウントの符号)以外は知る必要がないのです。

また、ローソク足の方向性の予測は、どのような時間軸で意味があるとお考えですか?まさにこの方向で掘っています(ニューロネットは使っていません)、結果(予測の正答確率)は以下の通りです。M1- 69%, M5- 61%, M15- 58%, M30- 56%, H1- 55%, H4- 51%, D1- 46%, W1- 51%, M1- 58%.この方式に基づくアドバイザーは、普及率で排水される。:/

 
lea >> :

また、どのようなタイムフレームでローソク足の方向予測が意味をなすとお考えでしょうか?今、この方向で掘っています(ニューロネットは使っていません)。結果(予測の正しさの確率)は次の通りです。M1- 69%, M5- 61%, M15- 58%, M30- 56%, H1- 55%, H4- 51%, D1- 46%, W1- 51%, M1- 58%.この方式に基づくアドバイザーは、普及率で排水される。:/

どれもないと私は思っています。>>タイムフレームが出た!

 
paralocus >> :

そんなことはないだろう。タイムフレームなんて!

やはり、ヒーローの気質を受け継いでいるのですね。ゆっくりでいい、その時が来れば、こんな風に書いてくれるだろう。

チックアウト!

ただ、すべて順調で・・・。

>> グッドラック!:о)

 
grasn писал(а)>>

ただ、すべて順調で・・・。

私のニューラルネットワークが統計をとっている間(隠れ層のニューロン数が多いと収束が安定しないため何度かクラッシュしたので、カウント率を重みベクトルの長さに正規化し直しました)、NSの適用性について私の意見を述べたいと思います。

上記では、学習したネットワークが学習ベクトルの統計的なギャップを埋める能力を示唆しました。これにより、学習データが不足している場合でも、NSを有効に活用することができると考えています。しかし、自然はもっと面白いことに...。NSの主な特長は、少し違うところにあるようです。その仕事は、入力データのうち学習に参加していない値をもとに、値(予測値)を「出力」することである。それは理解できるのですが、よく考えてみてください・・・。少し」間違った入力データで期待値をできるだけ確実に予測するためには、入力のNEEDED範囲(入力がとる値の範囲)にいくつかの基準点があれば十分だ。これがNSの主な特性で、ここで重要なのは、入力データの値の範囲が連続であるという事実である。そこで、NSの力が存分に発揮されるのです。

入力データが離散的な場合、どうなるのか?特になし、NSでも大丈夫です。しかし、今は離散値のすべての組み合わせについて統計を取り、NSの場合と同じような予測をする機会があるが、それがない。しかし、NSの方がより速く、よりエレガントに処理できることを忘れてはならない(多くの離散値がある場合はそうだが、そうでない場合は...)。また、入力値の離散性が低い場合や、2つしかない場合(±1)には、NSは不要であることがわかる。各数値の統計を取るだけで十分で、これほど正確な予測をするものは自然界にはないでしょう。

バイナリエントリ予測については、NSよりもはるかに効率的な方法がある。NSの良さを損なうものではありませんが、BPの予測が2値化されるのは魅力的です

図は、2値化2エントリNSが受け入れる状態の範囲を示したものである。入力値が取り得る組み合わせの数は、わずか4通りです。そして、そのそれぞれでBuy/Sellの判断をする必要があるのです。NSはここに必要ない!些細な統計が必要なのです。3つの入力NSに対して、8つの頂点を持つ3次元の立方体が得られ、それぞれの頂点で同じBuy/Sellなどが行われる。

もう一度言いますが、私はNSの良さを軽視しているわけではありません。例えば、池のミジンコの個体数を予測する場合、水質、水温など100~200の要因に依存しますが、少なくとも1~2個のパラメータが1%変化すると、NSなしでは信頼できる予測ができません。おそらく、統計が全く存在しないか内挿に適さない領域に入るでしょう。

 
Neutron >> :
...

評決のようですね...。パーセプトロンの重大な限界を証明したミンスキーなどに対する「評決」として、お金の追求のために忘れ去られている。そして、非線形初期化をした多層ネットワークでさえ、正しい分類をする保証は全くないことも、忘れている・・・。 (しかし、これは冗談であって、別の議論の始まりではありません)。しかし、私の経験では、パーセプトロンを使っても、特に「悪い」行に対しては、全く利点がありません(あなたのカグは、予測には非常に悪い行です)。


でも、とにかく頑張ってください。またね、(2週間ほど消えますが)。

 
もし興味があれば、FORTSで先物の 全歴史が公開されています。数年分の奥行きがあります。