NSの入力値を正しく形成する方法。 - ページ 10

 
TheXpert писал (а)>>

気にしないでください、間違っていたらごめんなさい。

このクロスチェックが何なのか、あの書き込みではよくわからないと思いますので、もう少し詳しく説明します。例えば、誤差が最小になるようにネットワークを学習させるとする。2007年に試したところ中間値0.5、2008年に試したところ0.8となり、このネットワークを記憶し、学習を継続することができます。そして、2007年の0.4を得て、2008年の0.7と照らし合わせてみました。古い網は捨て、この網を記憶し、訓練でフォローする。そして、2007年は0.3、2008年は0.6となりました。古いネットは捨て、このネットを思い出しながら、トレーニングを続ける。2007年は0.2、2008年は0.8。このネットワークは記憶されず、以前のものが保持されます。記憶にとどめ、さらに鍛えていく。2008年に0.6以下にできなかった場合は、2008年に0.6、2007年に0.3のネットワークを残し、2007年に0.2以下のネットワークは残さないようにします。事実上、これ以上のネットワーク学習はオーバートレーニングになる。これにより、常にセーブできるわけではありませんが、オーバートレーニングを回避することができます。

そして、ご覧の通りフォワードテストは関係ありません......))))。

 
TheXpert писал (а)>>

...

また、コードについてですが、NeurosolutionsやNeuroshel 2は、MQL4にコードを移植するのでしょうか?ここにいる住人にとって、そして多分私にとっても役に立つと思われる関数をいくつか書いてみます。それならなおさら、100行のコードを書けばいいんです。1時間もあればできますよ。

dll/defをインポートするか、cから書き換えます。

ここにいる住人にとって、そして多分私にとっても役に立つと思われる関数をいくつか書いてみます。100行のコードを書けば、1時間分の時間ですからね。

特に、「1.入力データを準備する。(平均値シフト、非相関、共分散等化)。" であれば、非常にクールであり、もし ...MQL4でのNSの別の実装、それから.

例えば、「入力の有意差」「入力の相互相関」という美しい言葉をどのようにコードに実装するのか、私には理解できない(もっと美しい言葉を挿入してくれるエショフが手元にいないのだ)。すなわち、数式/アルゴリズム私は知っているが、OHLCに、ノイズまたはその逆のDCフィルタ、および分が面白いと日が遅れているときにちょうど "離散値"。:)

 
SergNF писал (а)>>

dll/defをインポートするか、sから書き換えます。

特に、「1.入力データの作成。(平均値シフト、非相関、共分散等化)。",

>> その通りです。

私は、「入力の有意差」「入力の相互相関」というきれいな言葉をどのようにコードで実装すればよいのか、理解できなかった(手元にきれいな言葉を挿入するエショフがない)。すなわち、数式/アルゴリズム私は知っているが、OHLCに、ノイズまたはその逆のDCフィルタ、および分が面白いと日が遅れているときにちょうど "離散値"。:)

何が大変なんだ?計算式は、分単位のデータを与えようが、週単位のデータを与えようが、気にしない。

 
LeoV писал (а)>>

このクロスチェックがどういうものなのか、あの書き込みではよくわからないと思いますので、もう少し詳しく説明します。例えば、誤差が最小になるようにネットワークを学習させるとする。2007年に試したところ中間値0.5、2008年に試したところ0.8となり、このネットワークを記憶し、学習を継続することができます。そして、2007年の0.4を得て、2008年の0.7と照らし合わせてみました。古い網は捨て、この網を記憶し、訓練でフォローする。そして、2007年は0.3、2008年は0.6となりました。古いネットは捨て、このネットを思い出しながら、トレーニングを続ける。2007年は0.2、2008年は0.8。このネットワークは記憶されず、以前のものが保持されます。記憶にとどめ、さらに鍛えていく。2008年に0.6以下にできなかった場合は、2008年に0.6、2007年に0.3のネットワークを残し、2007年に0.2以下のネットワークは残さないようにします。事実上、これ以上のネットワーク学習はオーバートレーニングになる。これにより、常にセーブできるわけではありませんが、オーバートレーニングを回避することができます。

そして、ご覧の通りフォワードテストは関係ありません......))))。

言い換えれば、トレーニング/最適化は、トレーニング サンプルでの誤差が最小になったときではなく、テスト サンプルでの誤差が増加し始める前に終了します。

 
Erics писал (а)>>

言い換えれば、トレーニング/最適化は、トレーニング サンプルで誤差が最小になったときではなく、テスト サンプルで誤差が増加し始める前に終了します。

だから、基本的にはイエスです。なぜなら、学習サンプルの誤差が小さくなると、テストサンプルの誤差も小さくなり、その後、学習サンプルの誤差は小さくなり続けるが、テストサンプルの誤差は大きくなり始めるという理論だからだ。この谷を捕まえるのがコツです。これが、オーバートレーニング(ネットの場合)、オーバーオプティマイゼーション(TCの場合)のポイントです。

 
LeoV писал (а)>>

まあ、そうなんですけどね。なぜなら、トレーニングサンプルの誤差が減少すると、まずテストサンプルの誤差が減少し、その後、トレーニングサンプルの誤差が減少し続けているにもかかわらず、増加し始めるという理論があるからです。この谷を捕まえるのがコツです。これが、オーバートレーニング(ネットの場合)、オーバーオプティマイゼーション(TCの場合)のポイントです。

 
sergeev писал (а)>>

全くその通りです。ただ、ひとつだけ小さなポイントがあります。カーブが上昇しているときは、極小値があるかもしれませんが、最初の極小値より高いはずです(理論上は)。実際には)もっと少なくなることもありますが、まれなことです。

 

そして、オーバートレーニングに関する写真です。

 
LeoV писал (а)>>

全くその通りです。ただ、ひとつだけ小さなポイントがあります。カーブが上昇しているときは、極小値があるかもしれませんが、最初の極小値より高いはずです(理論上は)。実際には)もっと少ない場合もありますが、まれなことです。

良い点です。

一般に、このスレッドの理論はすでに多くのことを語っています(当フォーラムで論文を守ることができます :)。

そして、心は今、実践的な経験や知識を渇望しているのです。

可能であれば、実務担当者が入力 値の分析や作成に関する経験を共有できるようにする。それが具体例です。

>> ありがとうございました。

 
sergeev писал (а)>> 可能であれば、実務担当者がインプットの 分析と準備における経験を共有できるようにする。つまり、具体的な事例です。

入力値も単純な問題ではありません。メイン入力に何を供給するかは、多くの要因に左右されます。

1.どのようなニューラルネットワークが使われているのですか。

2.ニューラルネットワークから得たいもの、それは価格か動きの方向か反転ポイントか次のローソク足か何かです。

だから、まずこの質問を決めてから、インプットを決める必要があるのです。