NSの入力値を正しく形成する方法。 - ページ 24

 
Reshetov писал (а)>>

最後に、NSの補間機能がトレードに必要だと考えているオタクの方々のために、具体的な反論をさせていただきます。どんな再描画インディケータやオシレータでも、ニューラルネットワークやトリッキーなアーキテクチャを使わずに、歴史上の素晴らしい補間を得ることができるのです。もちろん、トレーダーはインデックスの再描画を避ける。なぜなら、補間や近似に適したものは、非定常状態での外挿には適さないからである。

これはナンセンスだ...。再描画の指標と補間や未来予測とはどんな関係があるのか?

 
Reshetov писал (а)>>

最後に、NSの補間機能がトレードに必要だと考えているオタクの方々のために、具体的な反論をさせていただきます。どんな再描画インディケータやオシレータでも、ニューラルネットワークやトリッキーなアーキテクチャを使わずに、歴史上の素晴らしい補間を得ることができるのです。もちろん、トレーダーは指標の再描画を避ける。なぜなら、補間や近似に適した指標は、非定常状態での外挿には適さないからである。

何が近似値なのか、よく分かっていないだけです。N次元の入力ベクトルXとM次元の出力ベクトルYが存在する。NSは両者の関係を確立し、すなわち依存性Y=F(X)を近似する。Yは3重巻きでも何でもよく、NSは気にせず、学習サンプルに対する近似F(X)の問題を正確に解決するのです。

 

再描画は民衆のアヘン!!!))))

 
Mathemat писал (а)>>
10で割るというアドバイスも強化します。なぜか確率共鳴のスレッドが頭に浮かびます。メッシュを最後までトレーニングすることで、目標関数をディープミニマム、つまり定常状態に追い込むことができます。安定した状態というのは、金融市場では全く典型的なものではありません。準安定型、つまり、わずかな「ノイズ」の影響を受けて、いつでも災害(トレンド)に転じることができるようなものである。でも、これはあくまで哲学的な考え方で...。

私の考えでは、「オーバートレーニング」と「アンダートレーニング」とも言えるNSの状態の本質に誤解があるように思います。これらの用語は、学習サンプルの長さ、与えられたNSの自由パラメータ(シナプス)の数、テストセットでの汎化誤差の大きさに関係する特性を指す。もし、サンプルの長さが調整可能な重みの数と同程度(極限ではそれ以下)であれば、トレーニングサンプルでは、入力ベクトルに対するNS応答の正確な一致が得られますが、テストサンプルでは、全く無意味なものが得られます。これは、過学習のネットワークの例である。トレーニングサンプルの長さが長すぎると(どのくらい長いかは別問題)、トレーニングサンプルでのマッチングが悪くなります(限界では、サンプル平均しか決定できません)。テストサンプルでは、同じもの、つまり平均を得ることになる。

見ての通り、学習エポック数は論外です。さらに、グローバルミニマム(NSの学習)を達成するためには、再定義された非線形方程式系のすべての可能な解の中から、累積誤差が最小となる(少なくとも系のすべての方程式を満たす)ものを選ぶ必要がある(NSは何をするのか)。この条件はもちろん、学習エポック数が無限大になったときに得られる限界解に近い解(シナプスの重みの発見)によって満たされる。

したがって、NSの過学習・過少学習と学習エポック数を混同してはならない。後者は常に適度に大きいことが望ましい(正確な数は実験的に決定されるべきである)。

文献で「早期停止問題」の議論に出会いましたが、著者は自分たちが書いていることの本質をよく理解していないという印象を持ちました。実際、学習サンプルが最適な長さより短い場合を考えると、学習の過程で、テストセットに対する誤差がまず減少し、さらに学習エポック数を増やすと再び増加し始めるという状況が発生する......ということになる。まあ、それはまた別の話として、同志諸君!

 

NNNの大御所が集まったので、私はこれで引退します。神経ネットワークの素人である私の意見など、取るに足らないものです。

入力と自由度の比率については、理論的に推奨されている10以上と仮定して、話もしませんでした。私は、検証部のTFが最小値を通過する瞬間についてしか言っていません。私の記憶違いでなければ、シュムスキーによってかなり明確に記述されているようです。

 
Mathemat писал (а)>>

NNNの大御所が集まったので、私はこれで引退します。神経ネットワークの素人である私の意見など、取るに足らないものです。

入力と自由度の比率については、理論的に推奨されている10以上と仮定して、話もしませんでした。私は、検証部のTFが最小値を通過する瞬間についてしか言っていません。私の記憶違いでなければ、シュムスキーもかなり鮮明に描写しているように思います。

数学の成績も悪くないので、どうかご安心ください。他の人もリクエストに加わると思います。

 
Mathemat писал (а)>>
10で割るというアドバイスをさらに強化します。なぜか確率的共鳴についての枝が頭に浮かぶ。メッシュを最後までトレーニングすることで、目標関数をディープミニマム、つまり定常状態に追い込むことができます。安定した状態というのは、金融市場では全く典型的なものではありません。準安定型、つまり、わずかな「ノイズ」の影響を受けて、いつでも災害(トレンド)に転じることができるようなものである。でも、それは哲学的な考察に過ぎない...。

まあ、同じような意味なんですけどね。ただ、一般的な用語である「定常状態」の代わりに「ステディ・ステート」という言葉が使われている。どちらの言葉も、統計的(フィッティング)なデータは確率論に近いという意味である。しかし、金融商品を扱ったことのある人なら、金融商品には非定常性があるため統計学が適用できないことをよくご存じでしょう。


経験的に、グリッドを3分の1程度に再トレーニングする必要があると感じています。繰り返しになりますが、インプットの適切さにもよりますが。経験的に10%程度のトレーニングで済む人もいるかもしれません。

 
Reshetov писал (а)>>

まあ、私もそういうことなんですけどね。ただ、一般的な「定常」という言葉ではなく、「定常」という言葉が使われるようになっただけです。どちらの言葉も、統計的(フィッティング)なデータが確率的に近いことを意味する。しかし、金融商品を扱ったことのある人なら、金融商品には非定常性があるため統計学が適用できないことをよくご存じでしょう。


経験的に、グリッドを3分の1程度に再トレーニングする必要があると感じています。繰り返しになりますが、インプットの適切さにもよりますが。経験的に10%程度のトレーニングで済む人もいるかもしれません。


Haikinによると、パターン数が十分でない場合のみ、トレーニングサンプルとテストサンプルで完全なトレーニングを行った場合と結果が異なる可能性があるという。

十分なパターンがある場合、フルトレーニングは、上記のように早期ブレークポイントよりもテストサンプルに対して良い結果をもたらします。

私の経験では、この結果を信じる傾向があります。



リニアニューラルネットワークについてですが、もし十分な信頼性を持ってポジティブな結果が得られるのであれば、結論は一つしかありません、ニューラルネットワークは必要ありません。

 
TheXpert писал (а)>>

これはナンセンスだ...。再描画の指標と、補間や未来予測などとは何がどう関係するんだろーか?

拝啓、内挿が未来に関係していると私が主張したのはどこでしょうか?眼科に行き、表現を投げかけるのではなく、書き込みをよく読んでください。外挿が必要なことは、特にギフト向けに報告し、再確認しています。


私の投稿は、rip さんの投稿に対してのものです:


------------------ 引用元--------------------------------------------------


リップ 2008.07.14 00:01
レシェトフが 書いた(a)>>。

そうですね。アーキテクチャは、適切なインプットをすれば、もう問題ない。入力がすべてで、アーキテクチャは何もない」と言ってもいいでしょう。


ここでは、通常の入力をピックアップし、MTS "Sombo " で適切な結果を得ることができました

私もある程度は同意見です。しかし、ネットワークのアーキテクチャは大きな役割を果たします。例えば、RBFネットワークは、ある種の補間タスクを解くのに非常に優れています。

 
TheXpert писал (а)>>

Heikinによれば、訓練用サンプルとテスト用サンプルでフルトレーニングした結果に食い違いが生じるのは、パターン数が十分でない場合に限られるという。

オタクさん、普通の人は自分の脳と経験を持っていますが、オタクは自分の脳がない、ありえないから、オタク同士を引き合いに出すのです。


ヘイキンは、おそらく静止した環境でネットワークを訓練し、それ故に彼の結論に至ったのだろう。非定常環境では、例えば取引では、今日は買い、次は売りのパターンが与えられると、ネットワークは全く学習しない可能性がある。なぜなら、どんなエントリーでもある程度の確率で誤信号が発生するからです。