トレーディングにおけるニューラルネットワークの活用 - ページ 4

 
StatBars >> :

正規化は作業内容よりもデータに依存するというのが、あなたの投稿からわかることだと思います。

第2部について:インクリメンタルMAやインクリメンタルシリーズを意識しているのでしょうか?

また、一般的には、学習したネットワークが入力データ(個々の入力)に対して鈍感であること、あるいは入力データを変えるだけで、ネットワークは今まで通り予測を行うこと、ということでしょうか?

はい、データ配信への依存は、学習のスピードと質に影響します。つまり、正規化は本質的に速度と品質にそれぞれ影響する。2つ目の部分についてですが、もちろん、全く違うデータを同じデータで訓練したニューラルネットワークに押し込むことはできませんが、同じように、十分に正確に分布を記述することはできます。分布、データの種類は常に同じであるべきです。しかし、プロセスを正確に記述した1種類のデータでネットワークを訓練し、新たに訓練したネットワークでプロセスを正確に記述した他のデータを使用して非常に異なる結果が得られた場合、ニューラルネットワークに誤った質問を投げかけた可能性があることを意味します。データはまず、プロセスを完全に記述している必要があり、次に、ネットワークが定性的に汎化することを要求する点で、十分な汎化誤差を減らす必要があります。これらはすべて、文字通り直感的なレベルで起こることなのです。処理が完全に記述されていれば、データ型をいじっても無駄だが、ネットワークに正しい質問をする価値はある。

 

前処理について一言。

出典サンプル:出力は入力と相関がある(最も大きな相関がある)。corr=0.64 となった。

グラフ上:座標X - 入力データ。Y - 必要な出力

線形関係を削除する。線形依存性を見つけるのにネットワークは必要ないし、それにニューラルネットワークの結果を悪化させる。

デコラティブデータはこんな感じです。

また、最初のグラフから、データポイントの密度が中心部に集中し、エッジに沿ってまばらになっていることがわかると思います。

つまり、中央に集中した点がネットワーク学習の主な刺激となり、むしろその誤差値がエッジ上のデータの誤差値を上回ることになる。ネットワークはまず、ちょうど中央にあるサンプリングの期待値を見つけ、その周囲を最小誤差条件を守って分布させる。

したがって、頻度分布関数が均等化され、誤差の重要性が平準化され、ネットワークはデータ分布の端だけでなく分布の中心でも最小の誤差を達成する明確なインセンティブを持つようになります。

シグモイド関数では、入出力データはほぼ均等に分布しています。

変換後のデータはこのようになります。このデータをもとに、ネットワークは学習していくのです。

だから、データクラウドは均等に配置されているのです。しかし、このような前処理をネットワークに最適とは言い切れないニュアンスがあることは言うまでもない。

また、すべての変換は可逆的であり、不正確さをもたらさないことも特筆すべき点である。

すべての方法(原則)は、このスレッドで議論されています。

 
StatBars писал(а)>>

シグモイド関数で変換した後のデータ分布関数では、入力データと出力データがほぼ均等に分布する。

StatBars この手順は自動化されているのでしょうか、それともシグモイド関数の係数を調整するために手動で行うのでしょうか。

 
Neutron писал(а)>>

StatBars この手順は自動化されているのですか、それともシグモイド関数の係数を調整するなど、手動で行う必要があるのでしょうか?

係数の調整が必要です、今のところ...。でも、自動化する予定です...。近似関数を正しく選択すれば、矩形になるという考え方です。

面積分布機能でアライメントだけを自動化したのですが、「滑る」瞬間が多くて断念しました...。

 

そうなんですよー、私も同じなんです。

任意の分布から目的の分布(矩形)を得る方法を解析形式でPrivalに 問い合わせたいのですが。

また、FAとしてハイパーボリックタンジェントではなくシグモイドを使用するのはなぜですか?メリットは明白です...

 
Neutron писал(а)>>

それと、なぜ双曲線タンジェントではなくシグモイドをFAとして使っているのでしょうか?メリットは明白です...

そして、そのメリットはもっと細かくてもいいはずです。

 
そう、対称的な関数で活性化されたニューロンは、2倍の速さで学習するのです。さらに、学習過程では重みのいくつかがゼロに近い値をとり、それがオフになる。つまり、シグモイドFAのニューロンにおける「働く」シナプスの有効数は、常に双曲線のものよりも小さくなるのである。このままでは、「死んだ」シナプスを引きずって行ったり来たりしなければならないので、よくありません。
 
Neutron писал(а)>>
そう、対称的な関数によって活性化されたニューロンは、2倍の速さで学習するのです。さらに、学習過程において、重みのいくつかはゼロに近い値をとる。つまり、シグモイドFAを持つニューロンの「働く」シナプスの有効数は、常にハイパーボリックのそれよりも少ないのである。このままでは、「死んだ」シナプスを引きずって行ったり来たりしなければならないので、よくありません。

簡単な変換で、シグモイドでも-1から1までの値を得ることができます。複雑なことは何もないんです。

 

ええ、誰がそれに異議を唱えることができますか?

あくまでも「ズボンを履く、脱ぐ」の問題です。

 
Neutron писал(а)>>

そうですね~、私も同じです。

任意の分布から目的の分布(矩形)を得る方法を解析形式でPrivalに 問い合わせたいのですが。

また、なぜハイパーボリックタンジェントではなくシグモイドをFAとして使うのでしょうか?メリットは何と言っても表面上...。

私はハイパーボリックタンジェントだけを使っています。