トレーディングにおけるニューラルネットワークの活用 - ページ 3

 
StatBars писал(а)>>

写真は正規化されていないデータと異なるデータから、私が行ったことの例(結果としてどのように見えるか)を示しただけです。

そして、これがそのスクリプトだ。これを使って、出力がどのようになるかを見ることができる(ただし、入力データにはあまりこだわらないでほしい-このスクリプトは、単に説明のために作られたのだから...)

//タイプ 0 - 線形正規化、1 - 非線形正規化

StatBars、文句なしです!

まあ、動くしね〜。ただ、正規化の手順は分布を平滑化することとは違うので、もっと洗練されたアプローチが必要だということははっきりさせておきたいですね。しかし一方で、入力値を最終的に±1の範囲で、しかも棚ぼたという形で、おいしくいただく。また、入力を白くすると、美的な快感が得られます。

 
Neutron писал(а)>>

スタットバー、文句なしです!

まあ、動くからいいんですけどね。ただ、正規化の手順は分布の均等化とイコールではなく、比較的複雑なアプローチが必要であることを明確にしておきたいと思います。しかし、一方で、最終的に±1の範囲にある入力値で、しかも棚という形で、おいしい思いをさせてもらっているのです。また、入力を白くすると、美的な快感が得られます。

)))

ところで、ある記事に記載されている方法を実装し、私はそれを読んだ場所を正確に覚えていない...一般に、面積分布関数を用いると、2枚目の絵がまさにこの手法の作品となる。

とにかく、ここに簡単な正規化と周波数アライメントを行ったファイルがあります。最良の例ではありませんが、それでも...。

入力のホワイトニングを行いましたか?いくつか質問があるのですが・・・。

ファイル:
 

しました。

でも、ホワイトニングやブリーチングというのはないんです。愚直に2つのNS入力に2つのワイパーを送り、美白を目指す...。これは1つのケース(臨床)であり、バーの開店価格を 1ダースにまとめることができます。これも1つで、白くするものはありません。すべてがそのまま白いのです。

 
スレッド読みました、他のスレッドより参考になります、でも今日は善行の日なので、T・O・P・I・C・K・Eで 話題にします・・・。:-О)
 
Neutron >> :

レオニード NSの再訓練に問題はない。それは、美しい名前と3本の釘が入ったこの箱の中で起こっていることの本質を理解していないことに起因している。ミニマムより短いトレーニングサンプルを取らないようにすれば、何が良くて何が悪いかを直感で判断する必要がなくなりますよ。

正しい」入力については、私も100%同意します。NS区で解決できることはすべて、独自に解決しなければならないのです。ソリューションにないもの、不当に難しいものを残しておく必要があるのです。例えば、Zig-Zag入力に給電しても全く意味がない。この場合、NSの動作は明らかです - それは表面にあるものを学習します - ZZの腕の精通、およびそのような入力データの使用はゼロです。

入力に間違いはありません。間違ったタスクがある。

 

ノーマライゼーションを題材に。すべてのタイプの正規化が、目の前のタスクのコンテキストに適用できるわけではありません。

 
registred писал(а)>>

入力に間違いはありません。方向性を誤ったタスクがある。

なぜダメなのか?ありますね。目的(正解)の問題のほかに、この問題を解くためのデータもある...。

また、ノーマライゼーションについてですが、何か説明はありますか?

 
ニューラルネットワークを記述する際には、すべてのニューロンは同じであり、ニューロンを一度記述することは可能ですが、切り離された接続を除去した後のニューロンは、通常、異なる構造を持つことになります。
 
StatBars >> :

なぜダメなのか?ありますね。目的(正解)の問題のほかに、この問題を解くためのデータもある...。

また、ノーマライゼーションについてですが、何か説明はありますか?

さて、正規化には線形正規化と非線形正規化があります。非線形は新しいデータの分散に敏感である。線形はシンプルで計算量も少ないが、いわば非対称であるため、トレーニング期間に影響が出る。 それがあれば、分散は一定の条件のもと、訓練の結果、何にでもなることができます。しかし、学習そのものは、平均値ゼロ、単位分散に正規化されていない系列は、そのような正規化が行われている場合よりも、最終的にネットワークの学習時間が長くなってしまうのです。最初の質問について、私の個人的な意見はこうだ。MAも取れるし、シリーズのインクリメントも取れる。私にとっては何の違いもありません。要は、ネットの学習後に、私が選んだもの(MAや単純に系列の増加分)によって学習結果が変わるのであれば、それは正しく設定されたタスクではなく、私が教えようとしたことをネットが学習しただけであることを示していることになる。つまり、教えたとおりの動作をすればいいのです。 しかし、規則性を見つける、つまり一般化するためには、ネットワークはそれを正しく行わない、あるいは行わない。ポイントは、ニューラルネットワークの出力に必要となるデータの種類の汎化誤差を小さくすることだ。入力データは時系列の増分でもよいが、必ずしもMAなどの形で平滑化されたものでなくてもよい。彼らは皆、シリーズを平滑化する必要があると書いている。しかし、データの客観的な規則性は保存されているので問題ないと思いますし、要は自分のシリーズに必要な増分を選択すればいいのです。

 
registred писал(а)>>

さて、正規化には線形正規化と非線形正規化があります。非線形は新しいデータの分散に敏感である。線形はシンプルで計算ステップも少ないが、いわば非対称性が学習時間に影響する。それがあれば、分散は一定の条件のもと、訓練の結果、何にでもなることができます。しかし、学習そのものは、平均値0、単位分散に正規化されていない系列は、そのような正規化を行った場合よりも、最終的にネットワークの学習時間が長くなってしまうのです。最初の質問について、私の個人的な意見はこうです。MAも取れるし、シリーズのインクリメントも取れる。私にとっては何の違いもありません。要は、ネットの学習後、私が選んだもの(MAか、単に系列の増分か)によって学習結果が変わるのであれば、それは課題の設定が間違っていて、私が教えようとしたことをネットが学習しただけだということになる。つまり、私が教えた動作を実行するだけでいいのです。しかし、規則性を見つける、つまり一般化するためには、ネットワークはそれを正しく行わない、あるいは行わない。ポイントは、ニューラルネットワークの出力に必要となるデータの種類の汎化誤差を小さくすることだ。入力データは時系列の増分でもよいが、必ずしもMAなどの形で平滑化されたものでなくてもよい。彼らは皆、シリーズを平滑化する必要があると書いている。しかし、データの客観的な規則性は保たれているので、問題はないと思います。重要なのは、系列の増分を適切に選択することです。

正規化は作業内容よりもデータに依存するというのが、あなたの投稿からわかると思います。

第2部について:MAインクリメントとシリーズインクリメントを考慮するのか?

また、一般的な意味での学習済みネットワークは、入力データに対して非感受性でなければならないということでしょうか? それとも、入力データを変えるだけで、ネットワークは予測を継続しなければならないのでしょうか?