トレーディングにおけるニューラルネットワークの活用 - ページ 12

 
registred >> :

...えっ、FXのニューラルネットワークの 問題は誰も解いたことがないんですか?

なぜ誰もいないのか?

決めた人は黙っててね :)

1.

2.

そして残りはプロテイン・ニューロンで仕事をしなければならない :(

 
goldtrader >> :

なぜ誰もいないのか?

決心した人は黙っている :)

1.

2.

そして残りはプロテイン・ニューロンで仕事をしなければならない :(

つまり、ここで議論していることは無駄であることが、実は判明しているのです...。私自身は、FXでニューロニクスを使ったことはありませんが、他の案件で取引したことがあります。いわばトレーディングのために試してみたいのだが、まだ時間がない。だから、FXのことは何も言えません。ネットワークのトレーニングは非常に複雑なものです。もちろん、隠れ層のニューロンの数を増やし、サンプルサイズを増やし、ネットワークが浅いローカルミニマムにどのように陥っているかを調べ、そこから抜け出すために多くの実験を行わなければなりませんが。そして、その結果、何も起こらないということもあり得ます。一般的に、それらは実際には多くの困難があります。

 
registred >> :

つまり、ここで議論していることは無駄であることが、本当にわかったのです...。

上の私の投稿の、1番と2番の下に、あなたの反応から判断して、あなたが辿っていないリンクがあります。

そこではニューラルネットワークのEAが取引されています。

NSは、金融市場で利益を上げるための最も簡単なツールではありませんが、正しい使い方をすれば、うまく機能します。

 
goldtrader >> :

上の私の投稿の、1番と2番の下に、あなたの反応から判断して、あなたが辿っていないリンクがあります。

そこで、ニューラルネットワークアドバイザーが取引している。

NSは金融市場で利益を上げるための最も簡単なツールではありませんが、巧みな手腕でうまく機能します。

そうでした、よくeurofloodでたむろしています。私は独自の予測システムを持っていますが、それはニューラルネットワークに基づくものではありません。実はニューラルネットワークは、ただただ面白いテーマなんです。ネットワークに何を求めるかは大体わかっているのですが、ただ、先ほども言ったように、まだこれだけの番組を作る時間がないんです。それよりも、今のところ自分のシステムに満足しています。難しいのは、このニューラルネットワーク全体を設定することです。さっきも言ったけど、覚えるのに時間がかかりすぎるんだよ。勾配法以外の最適化も適用したい。

 
registred писал(а)>>

最適化の勾配 法以外のものを適用してしまう。

秘密でなければ、どのようなものですか?

 
registred писал(а)>> ネットワークのトレーニングは非常に複雑なものです。ネットワークは過剰に訓練されたり、過小に訓練されたりします。つまり、定性的な汎化を見つけるのが難しい場合が多く、隠れ層のニューロン数を増やしたり、サンプルサイズ自体を大きくしたり、ネットワークが浅いローカルミニマムになる様子を見たり、そこから抜け出るための実験を何度も行う必要があります。そして、その結果、何も起こらないということもあり得ます。一般的には、実は複雑なものが多いのです。

これは、実質的にニューラルネットワークの基本的なことです。この問題を提起しようとしたのですが、結論から言うと、あまり興味を持つ人がいないんです。ただ、この問題はとっくの昔に解決されており、それを追いかけても意味がないことが分かっているのですが、ニューラルネットワークのアーキテクチャや高度化にはより興味があります。サンプリングサイズを大きくすると、ネットワークが理解・学習できない歴史的なサンプリングに関するルールが多すぎるため、ネットワークのアンダートレーニングにつながります。その結果、局所的な最小値から抜け出せなくなり、過学習または過少学習になってしまうのです。オーバートレーニングの可能性が高くなります。その結果、ニューロン数を増やすと、将来的にニューラルネットワークの動作に悪影響を及ぼす。

 
LeoV писал(а)>>

これは、実質的にニューラルネットワークの基本的なことです。この問題を提起しようとしたのですが、結論から言うと、あまり興味を持つ人がいないんです。ただ、この問題はとっくの昔に解決されており、それを追いかけても意味がないことが分かっているのですが、ニューラルネットワークのアーキテクチャや高度化にはより興味があります。隠れ層のニューロンを増やすとサンプルサイズが大きくなる - サンプルサイズが大きくなると、ネットワークが理解・学習できないルールが過去のサンプルに多く含まれるため、ネットワークのアンダートレーニングにつながる。その結果、局所的な最小値から抜け出せなくなり、過学習または過少学習になってしまうのです。過学習の可能性が高くなります。その結果、ニューロン数を増やすと、将来的にニューロンネットの動作に悪影響を及ぼす。

経験者として、限界を感じてきたのでしょうか?最適な学習セットのサイズ、構造、入力数はどのようなものだとお考えですか?

 
StatBars >> :

秘密でないとしたら、それはどちらなのでしょうか?

ニューラルネットワークなら、カーネル近似ニューラルネットワークの方が、学習が早くて良いですね。

 
LeoV >> :

これは、実質的にニューラルネットワークの基本的なことです。この問題を提起しようとしたのですが、結論から言うと、あまり興味を持つ人がいないんです。ただ、この問題はとっくの昔に解決されており、それを追いかけても意味がないことが分かっているのですが、ニューラルネットワークのアーキテクチャや高度化にはより興味があります。サンプリングサイズを大きくすると、ネットワークが理解・学習できない歴史的なサンプリングに関するルールが多すぎるため、ネットワークのアンダートレーニングにつながります。その結果、局所的な最小値から抜け出せなくなり、過学習または過少学習になってしまうのです。オーバートレーニングの可能性が高くなります。その結果、ニューロン数の増加は、将来的にニューラルネットワークの運用にマイナスの影響を与える。

ネットワークはほとんど常にローカルミニマムを見つけ、それは通常、与えられたタスクを解決するのに十分な深さと最小限の必要性を持っています。隠れ層に関しては、入力パラメータの次元に依存し、それは本質的に解決すべき問題の複雑さを表している。すなわち、隠れ層に十分なニューロンがない、あるいは、与えられた次元の入力に対して十分な例がない可能性がある。つまり、必要な汎化誤差になるまで、隠れ層のニューロン数を1ニューロン目から徐々に増やしていき、テストを行う必要がある。

 

y(x)=F(x)のような単一パラメータ依存性があり、この依存性 Fの 一般形は我々には不明で、これが価格系列というか、期待価格上昇のいくつかの指標の読みへの依存性を生成するとする。この状況では、例えば依存関係が線形であると仮定し、価格増分y[i] と指標読みx[i]のいくつかの過去の値を知っていれば、1次の多項式によって未知の法則 Fの 最適(最小偏差の意味で)線形近似を探索する問題を簡単に解くことができるy(x)=a*x+b 。そして、係数aと bを 最小二乗法で探索し、等しくなるようにする。

さらに進んで、未知の依存性(法則)を2次の多項式で近似することもできますy(x)=a2*x^2+a1*x+a0 あるいはn番目でも かまいません!しかし、これはすべて1つの変数、この場合は1つの指標の機能に対するものである......。2つの指標を使うことを想定した場合、平面(2変数の関数)による入力データの近似の解析解を得ることは既に難しくなっており、多項式の次数が大きくなるとF(x1,x2) に最も近いn 次曲面の解析式はもう得られません。しかし、この問題は、2つの入力x1,x2、1つの隠れ層と十分な数のニューロンを持つNSによって簡単に解決されます。さらに、入力数を10-20に増やすと、10-20次元の特徴 空間に任意の次数のジッパー面ができる--夢のような話です。

私たちは無意識のうちに頭の中で、現実や経験を最適な形で反映させるための「表面」を作り上げているのです。このような架空のシート面上の各点は、人生の一場面における責任ある決断であり、必ずしも正確ではないが、ほぼ常に最適である...。

なるほど!ちょっと調子に乗りすぎましたね。つまり、インサイダー情報を除けば、価格分析でニューロンカに勝るものはないと言っても過言ではありません。