金融シリーズのニューロフォーキャスト(1論文に基づく) - ページ 6

 
nikelodeon:

実は、オーバートレーニングなんです。これを知らないとは驚きです。従来の常識では、ネットワークが昨日と同じように動き始めたらオーバートレーニングであると言われています。つまり、入力のキーポイントを強調せず、昨日と同じ信号を出し始めてしまう......。

ナンセンスというか、そういうのを別の言葉で言うと?

ネットワークが「2*2=4」と教えられていた場合、「2*2=」と質問されたらどう答えるべきか?

2*2=4は昨日もそうだったし、明日もそうだろう。少なくとも、同じ質問に対してネットワークが違う答えを出すのはおかしい。

 

一般的に、このフォーラムでネットワークを実践している人たちの多くは、ニューラルネットワークは 電卓のようなもので、データを入力するとネットワークが結果を出してくれると考えているようです。そうです。ネットワークは電卓なのです。

しかし、ネットワークやそのアーキテクチャを熟知していても、その特性についての洞察は得られないし、得られない。それは、ANNの仕組みに対する「狭い」理解である。

したがって、優秀な脳外科医が、人間の脳の能力を知ることはできない。心理学者や心理療法士(精神科医と混同しないように)、哲学者、そしておそらく社会学者だけが、それを知ることができるのです。これはネットワークの「生理」の問題ではなく、「知性」の問題であり、ANN(と人間の脳)に対する理解のレベルが全く違う。

そのようなアプローチで初めて、ANNは何かを成し遂げることができるのです。ネットワークに引用文を送り込むという愚かな行為は、これまで何一つ良い結果を生んでこなかったし、これからも何一つ生んでくれないだろう。しかし、著者は、私の「斜め上」の意見として、ANNを使った予測を正しい角度から、知性の観点から、指標と、相場からのいくつかの「派生物」を使って見ているのだと思います。

でも、純粋に直感的に、98%で予測するのは無理なんじゃないかと思います。80%はそうだろうが、98%はないだろう。著者は研究結果を少し引きずっているのかもしれない--それはかなり認めます。しかし、この結果を検証するには、著者と同じ実験をする必要がある。それができて初めて「確かなこと」と言えるのだ。

 

整数



また、根拠もなく意見を言えることに大変驚きました。
オーバートレーニングという言葉については、すでにここのどこかで私の意見を述べました。この言葉は、現象の本質を全く反映していない。どのような英単語がそう訳されているのでしょうか。むしろ、"rote"(「詰め込んだ」から)あるいは "learned "という言葉の方が適切である。 この現象は、何も理解していないのに段落を一字一句暗記してしまった、頭が真っ白になった塾生やクレーマーに似ている。この現象は、サンプル数の少ないボリュームネットワークをティーチングする際に発生します。このネットワークは学習サンプルには正しく反応するが、より多くのサンプルの学習に対応できるため、使い物にならない、つまり、ただの空っぽの頭になってしまうのである。それが与える結果は何であれ、昨日のものではありません。だから、あなたが昨日持っているようなものは、私にはよくわからない、ある種の奇跡、ある種の魔法のオーバートレーニングです。
プログラミングの公式と同じで、ことあるごとにメモリーリークがどうのこうのと言われますね。だから、ネットワークの話をするとき、オーバートレーニング、オーバーエデュケーションということになるのですが、それが何であるかを理解している人はあまりいません。


何でもいいんです。ただ、教科書によっては、ネットワークが「昨日と同じように」信号を出すという現象を見かけますが、ずっと同じ信号を出すということではありません。いや、でも、信号の本質や意味は変わらないんですよ。一般に、ネットワークの学習パラメータを求めることは最も困難な作業であり、長い統計的研究によって解決することができる。

あるネットワークが、そのパラメータを設定するために100の選択肢を出したとする。そして、その中で正しいものはごくわずかです。あとは、これから漏れてくるでしょう。例えばマッシュのネットワークを見てみましょう。あらゆる分野の再トレーニングに非常に適しています。自分でもこの理論を試したかったのですが、私の運命ではありません。だから、もしかしたら誰かに必要とされるかもしれない。

トレーニングは2つのセクションに分かれています

1.2部のネットワークを学習させる。利益を受け取る(トレーニングのいずれかの部分のネットは利益を受け取ります)。

2.第1セクションのネットの動きを見てみましょう。

パッチ2で学習したときと同じ結果になるように、パッチ1でネットを学習してみましょう。

つまり、トレーニングの目標機能は、最大限のバランスではなく、まったく別のものになるのです。そこで、統計学を用いて、何がベストかを計算することがあります。

私はNSでネットレースをしたのですが、そこではトレーニングのためのターゲットの選択がなぜかまばらなんです。

その結果、統計を取ってみると、バランを最大限に鍛えるという目的は、必ずしも良いものではないという結論に達します。しかし、ここでもうひとつ、NSが将来にわたってうまく機能するような、まさにゴールを見つけるにはどうしたらいいのか、という問題が出てきます。選択肢は一つしかない、と言わんばかりに。

ネットワークを立ち上げ、その取引を監視して、今うまくいっているかどうかの結論を出します。このように......。

その結果、学習時のネットの収益性の高い設定は次のようになります。だから、このバランスでネットを鍛えれば、将来的に集まるかもしれません。しかし、アキレス腱があります。バランスをどうとるか......。といった感じでNSではTCを鍛えることができません。ターゲットトレーニング機能に難があります。試しに他のプログラムであれば...。

 

あるいはこのように、どちらの場合も最適化された部分の宝安曲線が極端に違っていて、確かにプラスにはなっていない。しかし、このことが将来的にネットワークを止めることにはなっていません。底力プラス...。

ネットワークのセクションごとに統計を取れば、あるパターンを確立するために必要な残高の大まかな類似性を得ることができそうですね。したがって、ある部分の利益が最大になるようにネットワークを訓練するのではなく、将来うまくいくような隠れたシグナルを見つけることが必要なのです。でも、今は違う。そこで、そのコツを紹介します。今は機能しないが、将来的にネットワークに有用な影響を与える可能性のあるパラメータを強制的に探し出す......というものです。集めるべき統計はたくさんあるし、些細なことからは程遠いし......。

 

いずれにせよ、この問題(最適化 結果の選択)を少なくとも60%解決することで、悪いものではない、トレードのためのツールを手に入れることができるのです。

他のパッケージは知りませんが、NSで最適化すると、最適化領域の残高がマイナスになるのを始めとして、いくつかの結果が出ます。NSですべての最適化結果を得ることができればいいのですが。そして、その中から純粋にビジュアルでバランスよく選ぶ。そうすれば、運に左右される無駄な結果をフィルタリングすることができます。ネットワークを稼働させ、どれがポンピングを始めるか見てみましょう。雨漏りし始めたらシャットダウンされる...。とかなんとか...。NSにこのオプションがないのは残念です。せめて最適化中のインジケータパラメータをファイルに保存してほしい...。

繰り返しますが、1回目のプロットの最適化で2回目のプロットの最適化で得た値が得られるということではありません。だから、ここには未解決の問題が山積している......。

 
nikelodeon:

つまり、ここにコツがあるんです。今は機能しないが、将来的にネットワークに有用な影響を 与える可能性のあるパラメータをネットワークに発見させること......。集めるべき統計はたくさんあり、些細なことからは程遠いのですが......。


そうやって、トレーニング後に「効かない」と覚えてもらう......。Nhs in tsはネットワークではなく、ガ...
 
Vizard:

そうすれば、訓練後に「これは効かないんだ」と思い出すだろうし......。NHSでは、ネットではなく、ガ

そうですね...。自由度が高いようでいて、必要なものは手を加えられない......。
 
joo:

しかし、この記事の著者は、私の最初の「斜め」からの見方では(そして私はまだ2番目の詳細な見方をする時間がありません)、インテリジェンスの観点から、正しい角度からANNによる予測を見ています -指標、引用のいくつかの「デリバティブ」を使用して います。

でも、純粋に直感的に、98%で予測するのは無理なんじゃないかと思います。80%はそうだろうが、98%はないだろう。著者は研究結果を少し引きずっているのかもしれない--それはかなり認めます。しかし、この結果を検証するには、著者と同じ実験をする必要がある。そうして初めて、「100%」と言えるのだ。


これは幻想だ...インテージが言った通り、筋書きは予報に任せる...。

現実には、何事も原始的な例で検証するものですが...。2つ目、3つ目の記事から、どのような方法でも構いません ))))

最初の黄色い縦線までサンプリングすると、90-95%が同じになる。次の縦線に移動して、同じアルゴリズムを適用すると、少なくなる。最後のセクション(成長)は、ネットワークが予測できない...。

もちろん、1VPのために数ステップを予測するためのものですが...。谷のピーク(循環性)を強調すれば、原理的に成長を捉えることはできるのですが...。

 
nikelodeon:

同意見です...。自由度が高いようでいて、必要なものは手を加えられない......。

ブラックボックスは、このNsh...
 
Vizard:


ただ、周期性(ダイナミクス)があるのが特徴です ...だから、このダイナミックスがモデル(ns、回帰、その他...基本的に違いはない)に入り込んで、しばらく続くのならいいのですが、変わってしまうと失敗します...。ダイナミクス変化の理由 2...Market and DT filters...


そうですね、私もそう思います。

これは、ネットワークが局所的に驚異的な結果を示す期間を意図的に選んでテストした、というのが2つ目の説明です。ところで、テスト期間の長さが150点で、200点や、例えば451点でないのは不思議です。潜在的なフィット感であることがわかります。