最適化とサンプル外テスト。 - ページ 5

 

キャンディッド収益 性はそんなに単純ではないのです。NSのA,B,Cを同じ集合とすると、通常の訓練後の戦略の収益性は、A区間で最大、B区間で大幅に低下、C区間で大幅に低下することになります。歴史上では素晴らしい結果を残しながら、歴史の外では損失を出す......それが私たちのやり方です。問題は、Cエリアは収益性でほぼ確実に悪くなるが、それでもAエリアと遜色ない戦略を選ぶことだ。

ただ、ニューラルネットワークはもう終わりにしましょう。

ここで宣伝するつもりはない。でも、その時に学んだテストの原則は、とても合理的なものです。また、メタクオートフィッティングとは対照的に、少なくとも汎化 能力に頼ることができます(Expert Advisorが将来にわたって利益を上げ続けることができる主な特性です。)

 
lna01:
Vita です。

私が言いたかったのは、本物のMetaTraderのテスターでは、サンプル+サンプルの母集団を最適化しても、サンプルに続いてサンプル外テストを最適化しても同じ結果が得られるということです。 テスターでは、「Expert properties」ボタンから「Testing」「Optimization」タブで好きな長さと深さの損失を解消することが可能になっています。

すべてはタスクの定義に依存する。テスト時間に対する利益分布の均等性の程度を無視すれば、MTテスターの標準能力は本当に十分であり、費やした時間は同程度になる。放置しておいていいのか? 経験や見解は人それぞれです。確かにフィッティングという言い方もできますが、近似という 言い方のほうがより正確なのではないでしょうか。すべての近似値が未来に外挿できるわけではなく、利益の均一性という基準は、外挿に適さない変形を承知の上で拒否することを可能にするだけです。 IMHO、もちろんです。


これは、その後のサンプル外テストによるサンプル上の最適化問題に対するテスターの適用性を指す。結果は同じですが、反対側からアプローチする必要があります。つまり、連続負けの回数と負けの値を減らすことです。以上です。
 
Mathemat:

キャンディッド、収益性はそんなに単純ではないのです。NSのA,B,Cを同じように扱うと、通常の学習後の戦略の収益性は、Aの部分では最大、Bの部分では著しく低い、Cの部分ではさらに悪い、というようになる。歴史上では素晴らしい結果を残しながら、歴史の外では損失を出す......それが私たちのやり方です。問題は、C領域ではほぼ確実に収益性が悪化するが、A領域には匹敵する戦略を見つけることである。


近似のアナロジーが答えを与えてくれると思います。近似が良ければ良いほど、外挿には適さないことが分かっています(もちろん、推測を伴う解析的な関数グラフのケースは却下です)。つまり、良い解決策は、Aでより多くの利益を与えるものではなく、A+Bでより均一な 利益を与えるものである可能性が高いのです。ここで外挿を始めると、やはり当然のことながら、予測地平が大きくなるにつれて誤差が大きくなります。
 
Mathemat:

Vita さん、断固反対です。そうでなければ、ニューラルネットワークでは、すべてのデータを3つのパートに分けることはできないだろう。つまり、本当のフィッティングは1回目だけで、3回目にはそれがどう転んでもいいように......。そして、「オッカムのカミソリ」か「システムの信頼性の喪失」かの選択は、システムの作り手に委ねられているのです。

大雑把に言うと、A+B+Cでの最適化は、上記の処理と全く同じではありません。


わかりやすくするために、念のため。

A - 試料に対する最適化で得られたパラメータセット

B - 試料外でAを試験した後に得られたパラメータのセット。

Bを求めるプロセスは、オンサンプルの最適化に続いて、アウトオブサンプルのテストを行うプロセスである。この過程で、カーブフィッティングから脱却することになっているのですね。

Cは、標本+標本外の母集団を最適化して得られるパラメータの集合である。

私は、カーブフィッティングの観点から、CはBと同等であると主張します。

C-B=サンプルでもサンプル外でも採算が合わないが、母集団全体では採算が合うパラメーターのセット。

Bを求める処理は、標準的なテスターで行うことができる。

 

キャンディッド、私は良いソリューションがAで最大の利益を与えるとは言っていない。オプティマイザーはその点、優れています。Aについては絶対的な最大値を与えますが、サンプル外については何も与えません。NS学習モデルによると、良い解の候補は、Bでの利益が最大で、Aでの利益は既に許容できるが最大ではない、というものである。

コメントについて:ほぼ同意ですが、A+Bではなく、A+B+Cです。

2 Vitaです。 前のページで明らかにしたはずなのですが.集合A,B,Cは重なりません。例えば、こんな感じです。

A - 2004年1月1日から2005年12月31日まで。

B-2006年1月1日から2006年10月31日まで、および

C - 2006年11月1日から現在に至るまで。

NSのデータ長の比率は、通常、A:B:C=60:20:20です。

 
Mathemat:

コメントについて:ほぼ同意見ですが、A+Bではなく、A+B+Cです。

A+B+Cについては、たしかに非常に悲観的です :) 。誤差が自然に蓄積されるからこそ、偶然にCでAやBに匹敵する利益を得ることができるのである。
 
キャンディッド、私もです、えへへ...。でも、そうやってうまくいけば、もはや青菜切りとして最悪の検討候補になりますね。本当のEA評価プロットはCプロットなので、逆カンマで囲みました。そして、通常、ほとんどすべての誤差がそこに集中し、AやBのエリアは誤差が著しく少ない傾向があります。
 
Mathemat:

ここで宣伝するつもりはない。しかし、その時に学んだテストの原則は、極めて感覚的なものです。また、メタクオートフィッティングと異なり、ここでは少なくとも汎化 能力に頼ることができます(Expert Advisorが将来にわたって利益を上げ続けることができる主な特性ですが、当社のオプティマイザにはこの特性が完全に欠けています)。


そうなんですか!?汎化能力は、オプティマイザではなく、Expert Advisorの特性であるべきです。エキスパート・アドバイザーの考え方は、できるだけ包括的かつ体系的でなければならない。しかし、私はオプティマイザーに対してそのような主張をすることはありません。一般化 できるオプティマイザーで、どんなExpert Advisorでも、いつでも、将来でも、絶対に利益が出るレベルまで引き上げようとするのと同じで、無茶な話だと思います。メタクオート・オプティマイザーが最適化できる法則や儲かるアイデア、いわゆる一般化能力がないのは仕方ない。 あとは曲線に合わせるだけだ。
 
Vita、いいこと言うね。しかし、汎化能力はEAだけでなく、学習アルゴリズムの特性でもあり、学習アルゴリズムはこの能力を正しく認識しなければならない、と私は考えています。metaquoteアルゴリズムはこの能力を顕在化させず、過剰最適化によって破壊する。 しかし、真剣に最適化を行うために作られたわけではない...。
 
Mathemat:

キャンディッド、私は良いソリューションがAで最大の利益を与えるとは言っていない。オプティマイザーはその点、優れています。Aについては絶対的な最大値を与えますが、サンプル外については何も与えません。NS学習モデルによると、良い解の候補は、Bでの利益が最大で、Aでの利益は既に許容できるが最大ではない、というものである。

コメントについて:ほぼ同意見ですが、ただ、A+Bではなく、A+B+Cです。

2 Vitaです。 前のページで全部はっきり書いたつもりなんだけどな ...集合A,B,Cは重なりません。例えば、こんな感じです。

A - 2004年1月1日から2005年12月31日まで。

B-2006年1月1日から2006年10月31日まで、および

C - 2006年11月1日から現在に至るまで。

NSのデータ長の比率は、通常、A:B:C=60:20:20です。


A,B,Cの3人に神さまのご加護がありますように。私の投稿では、それらは別の意味を持っています。タイムラインではありません。これらは、最適化によって生成されるパラメータセットである。おいおい、どうしたんだ。