ニューラルネットワーク - ページ 5

 
gpwr писал(а)>> お互いに理解しあえない。

実際、あなたはすべてを正しく書いています。ただ、定義が違うだけなんです。

gpwr wrote(a)>> どの教科書にも、教師によるネットワークの学習は、データをトレーニングサンプルとテストサンプルに分割して行う、と書いてあります。ネットワークは、テストサンプルの誤差を見ながら、トレーニングサンプルの誤差を最小にすることで学習する(サンプル外テストまたは検証)。学習は、テストサンプルの誤差が減少しなくなった時点で停止します(下図点線)。そして、学習用サンプルの誤差は、この図のように減少し続ける可能性があります。

このように研究を重ねるうちに、多くの人が最も重要なことである「利益」を忘れてしまうのです。だからこそ、教科書には書かれていない「でも」が1つあるのです。それは、OOSで最小のエラーを達成しても、利益を保証するものではないということです。なぜ?最小限の誤差と利益は別物だからです。それらは全く関係がないのかもしれません。なぜ?ネットワークは必ずしもOOSと本物に市場を繰り返していないので - それは正しい売買シグナルを与えるために、特定の瞬間に十分である - すなわち、特定のトリガーしきい値を超えています。これらの瞬間(信号)の間では、ネットワークは好きなように振る舞うことができます。主なことは、この閾値を超えないようにすることです。だから、OOSの誤差が大きいと、利益が大きくなるのです。

muallch さんが書き込みました >>1

最初にアウトオブサンプルがあります - ネットをセットアップするために。そして、それは消えてしまう。本当の未来はこの先にある、予測しなければならないのだ。トレーニングを停止する基準は何ですか?ある種のエラー、またはトレーニングの実行回数ですか?それとも他の何か?

なぜなら、OOSは利益をコントロールできる既知の未来ですが、私たちは未知の未来で取引をしており、そこでは最小の誤差を得ることではなく、最大の利益を得ることが主な目的だからです。そして、どのようなエラーが発生するかは、問題ではありません。
 
muallch писал(а)>>

まず、アウトオブサンプル - グリッドをセットアップすることです。そして、サンプル外れはない。本当の未来はこの先にあり、予測しなければならないのだ。トレーニングを停止する基準は何ですか?ある種のエラー、またはトレーニングの実行回数ですか?それとも他の何か?

例えば、制御サンプルの最小誤差を更新することなく100エポック。

 
LeoV писал(а)>>

なぜなら、OOSは利益をコントロールできる既知の未来ですが、私たちは未知の未来で取引をしており、そこでは最小の誤差を得ることではなく、最大の利益を得ることが主な目的だからです。どのようなエラーになるかは問題ではない。

そんな風に考えてしまうのは、本当に安定した結果が出たことがないからでしょう。誤差と利益は相互に関連しており、原則として、それぞれのタスクについて、許容できるTCを得るために達成すべき誤差を決定することが可能である...
 
StatBars писал(а)>>
このように考えるのは、本当に安定した結果が出たことがないからでしょう。誤差と利益は相互に関連しており、原則的には、各タスクについて、許容できるTCパフォーマンスを得るために達成すべき誤差を定義することができます...。

あなたにとって「本当に安定した成果」とは何でしょうか?

 
StatBars писал(а)>> エラーとプロフィットは相互に関連している

関連性があるのかないのか、そこが大きな問題です。しかし、OOSでの最小の誤差は、実際の口座での最大の利益を意味しないし、つながらないことは確かである。また、リアル口座での最大利益が、その口座での最小誤差を意味するものではありません。

 
gpwr >> :

あなたは私の推理の本質を誤解しています。私は、「鍛えられていない」ネットワークと取引結果の関係については話しませんでした。テスト対象サンプルの誤差が減少しなくなるまで、ネットワークを学習させなければならないと、いたるところに書かれています。それは私も同感で、議論する気はありません。私の推論の本質は、並列ネットワーク構造がいかにその最適化を困難にするか、そして、べき級数に基づく非線形モデルがいかにニューラルネットワークと同じ目的を達成することができるか、しかし、よりシンプルな数学装置と速い学習プロセスでユニークな結果を導き出すことができるかを示すことにあります。

え、ここでどれだけ多くの意見が出たことか ;-)。私の5コペックを追加します。

あなたも誤解していますね。ネットワークが「鍛えられていない」という意味ではないんです。ネットに奇跡を期待しない方がいいという意味です。万能ではないし、勝率が上がるとしても非常に小さいので、だからこそ委員会が必要なんです。委員会のネットワーク構成や入出力のデータ構造は、じっくりと探すことができます。グリッドは、実際に10%も試さずに(プロジェクトに直接取り組み始めた時期だけで判断して)、割り切るのが早すぎたのだと思います。数学的な背景があるため、グリッドの代わりに何を試すかという選択肢があります;-)。ぜひ試してみてください。しかし、グリッドを批判することで、間違ったポイントに注意を向けているように思えます。特に、特定のメッシュインスタンスにおいて、どのシナプスがどの入力因子に対して学習するのか、どのような違いがあるのだろうか。知る必要があるのでしょうか?本当にそうなんです。この神経細胞間の信号分配グリッドの本質的な不確実性は、「デザインによるもの」とされている。しかし、十数個のメッシュを訓練して薄くすると、接続のパターン、つまりあなたが言った非常に非線形な系列が自ら形成され、一本に近いか同じになることがわかります。手動でアナログを作る場合、数学者であれば、データの流れの中でネットワークによって明らかになった依存関係を明らかにするために、どの方法を使うべきか、それがどれだけ労働集約的であるかを知っており、これらの依存関係を明らかにした後に初めて、力級を作成することができます。

委員会について申し上げたいのは、Nネットワークという単純な原則ではなく、例えば、100人受けたうちの上位10人しか選ばないということです。人の会議の例で続けると、多少なりとも話を聞くことができる人だけが話を聞くことができるのです。また、あなたはどうやら、私たちが2つ以上の結果を持っていることを忘れているようです。それらは実際、成功、失敗、損失、失敗である。つまり、利益確率が最大になるような構成ではなく、損失確率が最小になるような構成がベストである。それになぞらえて、ドローダウン比率を見る。超高収益の構成をとる場合、そのドローダウンがすでに50%であれば、ほぼ損失を保証することになり、意味がありません。

 

もう一度。

joo писал(а) >>

教師がいれば、正弦波など、すでに知っている関数のみでグリッドを鍛えることができます。ここで、良心的に、次のポイントにネットを送り、教師としての訓練を受けることができるのです。

教師として鍛えられた点のこれでは市場で通用しない。


なぜなら、どの点が正弦波の次に来るか、常に前もってわかって いるからです。正弦波の未来がわかる!

だから、過去の(正弦波)データで教える、つまり先生と一緒に教えることが有効なのです。

しかし、市場の将来はわかりませんから、先生と一緒に教えることは無意味な作業になってしまいます。

 
LeoV писал(а)>>

あなたにとって「本当に安定した成果」とは何でしょうか?

例えば、あるExpert Advisorが2ヶ月の履歴に3つのパラメータのみで最適化された場合、すべての履歴で80%のポジティブな結果が得られ、利益を得ることができます。

ネットワークも同じで...。

 
LeoV писал(а)>>

関連性があるのかないのか、そこが大きな問題です。しかし、OOSでの最小の誤差は、実際の口座での最大の利益を意味しないし、つながらないことは確かである。また、リアル口座での最大限の利益は、その上での最小限の誤差を意味するものではありません。

一般に、誤差ではなく結果の安定性の話をされていますが、ネットワークが安定的に何かを認識・予測し、この予測が十分な利益を生むのであれば、フォワードでもリアルでも利益が出ることになります。

その誤差が満足に小さければ、リードすることになる。満足にというのはどういう意味ですか?この条件は問題ごとに別々に設定されるのですが、私は経験的な方法しか知りません。

 
joo писал(а)>>

何度でも言う。

なぜなら、正弦波のどの点が次に来るのかが常に先にわかって いるからです。正弦波の未来がわかる!

だからこそ、過去の(正弦波)データで学習すること、つまり先生と一緒に教えることは正当なことなのです。

しかし、市場の将来がわからないからこそ、先生と一緒に学ぶことは無意味な作業なのです。

正弦波がわかっているからネットワークで予測できるのであれば、もっと複雑な数式を作れば、解析的な表記がわかるので、こちらも予測できるようになります。市場は同じ式で、さらに複雑になっただけで、WEにはわからない...。