再教育 - ページ 2

 
Dmitry Fedoseev:
そして、「ぼちぼち」は、人ではなく、書いたもので判断するものだと思っていました。

普段は迷惑な書き込みには返信しないのですが、個人的に返信させていただきます。

で、「ぼちぼち」というのはどういうことかというと、「ぼちぼち」です。

CASE 1.

ロボットを作成 し、TESTERでそのパラメータを見つけ、そして、それらを変更せずに、新しい相場エリアで、できれば他のシンボルやTFで試してみたとします。ポジティブな結果を得ることができました。

問題は、その結果をどこまで信用していいかということです。下がるのか、下がらないのか。

その答えとして、このサイトの「シグナル」タブで、銀行預金より高い収益性と1年以上の寿命を持つシグナルは非常に稀で、数千のうち百もないことを確認してください。このように、安定したTSの開発はアートであり、テスターはそのためのツールの一つであると私自身は考えています。しかし、最も重要な結論は、テスターは利益損失を保証するものではないということです。

これは、テスターでTSを確認したときに考えたことです。

CASE 2

"ボケ "という意味では、こちらの方が興味深い。- というのは、テスターが否定的な結果を出す場合です。どうすればいいのか?結局のところ、テスターはどの方向に掘ればいいのか、何のアイデアも与えてくれませんし、何より「なぜネガティブな結果になったのか」という問いに答えてはくれません。テスターが事実を述べている-それは悪いことだ。そして、TYKAメソッドやブラブラと呼ばれる普遍的な手法を使うことになるのですが、これは通常、上記のケース1に至る指標のセットを得ようと、直感的に指標を変えていくことを意味します。

ケース2のプロセスをより有意義なものにし、テスターで得られた結果を将来的に実際のアカウントで得られるようにするためのアイデアやツールはありますか?

そうです、並行しているスレッドにリンクを貼りました。TSの再学習(オーバーフィット)につながらないような、入力データ(予測因子)の初期セットを分析するためのこのようなツールを扱います。これらは、"ボッタクリ "ではありません。- これらは、直感的な聖杯探しや、そのような聖杯を見つけた後にデポを排出することなく、その有効性を数学的に正当化した具体的なツールである。

 
Stanislav Korotky:
フォワードテストを使用した場合、最適化期間外での結果の劣化により、「オーバートレーニング」が見えてしまう。残念ながら、MTには最適 化とフォワードテストの結果を比較する方法が組み込まれていません。つまり、自分の判断で外部のプログラムやスクリプトを使って手動(目で見て)で行うことが推奨されます。
再トレーニング」という言葉自体が無意味であり、EA自体の非機能を正当化するためのものであり、ウルフフォワードの場合は完全に意味を失ってしまうのです。ある変数が過学習か過少学習かは、実は、劣化からはわからないのです。それは、異なる最適化条件やテスト条件でのフォワード結果を比較 したときに初めてわかることです。ヒストリーの深さとフォワードステップの両方が個人的に選択され、何がオーバーで 何がアンダーで あるかがすでに見えている。
 
СанСаныч Фоменко:

...

CASE 2.

テスターは事実を述べている-悪い。そして、TYKAメソッドやブラブラと呼ばれる普遍的な手法を適用し、通常は直感的に指標のセットを変化させ、前述のケース1につながる指標のセットを得ようとするのである。

ケース2のプロセスをより有意義なものにし、テスターで得られた結果を将来的に実際のアカウントで得られるようにするためのアイデアやツールはありますか?

そうです、並行しているスレッドにリンクを貼りました。TSの再学習(オーバーフィット)につながらないような、入力データ(予測因子)の初期セットを分析するためのこのようなツールを扱います。これらは、"ボッタクリ "ではありません。- これらは、直感的な聖杯探しや、そのような聖杯を見つけた後にデポを排出することなく、その有効性を数学的に正当化した具体的なツールである。

もし、この突き刺す方法が自動化されていたら!?この方向性の考えは面白いですね。指標は変化し、その相互作用も変化する。相互作用は別の関数として表現されるため、パラメータの数は変化しても、それに応じた最も単純な最適化のみが行われる。だからこそ、このスレッドで問われている、ストラテジーパラメーターに依存しない、より普遍的なアプローチに興味があるのです。あなたが提案している支店は、目的が全く違います。しかし、それらの方法がこの問題に適用できることを示すのであれば、大歓迎です。

 
Youri Tarshecki:
再トレーニング」という言葉自体、EA自体の操作性の悪さを正当化するために作られた愚かなもので、ボルキングフォワードでは完全にその意味を失っています。ある変数がオーバートレーニングなのかアンダートレーニングなのか、実は、劣化からはわからないのです。それは、異なる最適化条件やテスト条件でのフォワード結果を比較 したときに初めてわかることです。ヒストリーの深さとフォワードステップの両方が個人的に選択され、何がオーバーで 何がアンダーで あるかが既に見えている。

このような場合、「オーバートレーニング」という言葉が当てはまる。トレーニングとは、パラメータの設定だけでなく、ストラテジーの構築も含まれる。

前方履歴プロットと比較した場合、2つの履歴プロット(トレーニング、テスト)を1つのトレーニングプロットとして認識してしまう可能性があります。アイデアを聴く))。

 
Aliaksandr Hryshyn:

このような場合、「オーバートレーニング」という言葉が当てはまる。トレーニングとは、パラメータの設定だけでなく、ストラテジーの構築も含まれる。

前方履歴プロットと比較した場合、2つの履歴プロット(トレーニング、テスト)を1つのトレーニングプロットとして認識してしまう可能性があります。アイデアを聴く))。

ストラテジーを構築する場合、同じ学習条件でのテスト結果のみを比較してコードのバリエーションを選択するため、「オーバートレーニング」という言葉はいっそう当てはまりません。そして、これらの条件をどのように最適に選択するかはそれほど重要ではなく、コードのすべてのバリエーションで同じであることが重要なのです。そうでなければ、選択の意味がありません。
 

オーバートレーニング」あるいは「過剰最適化」という言葉は、ツイキャスが作った造語で、確かにEAを履歴の特定の部分で最適化し、最適化パラメータが多ければ多いほど、トレーニングでの結果が良くなるためです。

なぜか、テスト結果と逆相関、つまり少なければ少ないほど良いという意見がありますが、私の経験上、そんなことはありません。テスト結果は、最適化パスの数ではなく、Expert Advisor自体の品質と、トレーニングおよびテスト実行の最適な選択に依存します。ストーリーに最小限の最適化を施した方式の結果は、私が見た中では最高とは言えません。

例えば、4ヶ月トレーニング-1ヶ月テストのウォルフキンフォワード方式では、履歴の各区間を4回最適化するが、2ヶ月トレーニング-2ヶ月テストの方式では1回だけである。多すぎるのか、少なすぎるのか?誰が知ってる!?検査結果を見るだけでいいんです。フォワードの合計が良くなれば、それが最良の選択です。

 
Youri Tarshecki:
ストラテジーを構築する場合、同じ学習条件下でのテスト結果を比較して、コードのバリエーションを選択するだけなので、「オーバートレーニング」という言葉はいっそう当てはまりません。そして、これらの条件をどのように最適に選択するかはそれほど重要ではなく、コードのすべてのバリエーションで同じであることが重要なのです。そうでなければ、選択の意味がありません。

この用語はよく使われます。「過学習オーバーフィッティングとは前例に基づく学習課題においてテストサンプルのオブジェクトに対する学習済みアルゴリズムの誤差の確率が学習サンプルの平均誤差よりも著しく 高い場合に起こる望ましくない現象 である」"

この定義によれば、学習条件が同じであっても、我々の問題への適用を妨げることはない。

 
Nikkk:

再トレーニングは、反革命という言葉に似ていますね。それなら、再教育する必要があるのなら、なぜまったく教えないのか。そして、再トレーニングに意味があるのであれば、再トレーニングの浮遊限界がわかっているわけで、そうでなければ結局は同じルーレットになってしまうのです。また、「いつ」「どのくらいの頻度で」「どのパラメータを」再トレーニングする必要があるかという判断ポイントがあるため、この理解を学習・アルゴリズム自体のロジックに最初から組み込んでおくのはいかがでしょうか。

価格分析から、トレーニングと現実(価格)のフィードバック分析へ。同じものを別の角度から。

ただ、学習と記憶を比べてみてください。どうせ忘れるのなら、なぜ覚えておく必要があるのかと考えてしまうのは、仕方がないことだと思います。問題は、一般的にEAは長期記憶とワーキングメモリーを分けて持っていないことです。また、その性能の評価も非常に原始的なものです。したがって、理想的には、すべてのパーマネントを別々に教え(記憶を与え)、トレーニングセグメントではなく、テストセグメントでテストすることです(ちなみに、私はそうするようにしています)。
 
Aliaksandr Hryshyn:

この用語はよく使われます。「過学習オーバーフィッティングとは前例に基づく学習課題においてテストサンプルのオブジェクトに対する学習済みアルゴリズムの誤差の確率が学習サンプルの平均誤差よりも著しく 高い場合に起こる望ましくない現象 である」"

この定義によれば、学習条件が同じであっても、我々の問題への適用を妨げることはない。

前例があるわけでもなく、最適化されているわけでもなく、コードを書くのです。

それに、この定義には納得がいきません。それによると、全く最適化をしていないのに、テストで失敗する確率がトレーニングより大きい場合(これはよくあることです)-それも過剰最適化とみなされるでしょう。そして、それは実質的に何を意味するのでしょうか?2回目?10倍も?

 
Youri Tarshecki:
ただ、学習と記憶を比べてみてください。どうせ忘れるのなら、なぜ覚えておく必要があるのかと考えてしまうのは、仕方のないことだと思います。問題は、一般的にEAは長期記憶と短期記憶を別々に持っていないことです。また、その性能の評価も非常に原始的なものです。したがって、理想的には、すべてのパーマネントを別々に教え(ちなみに、私はそれをやろうとしています)、トレーニングセグメントではなく、テストセグメントでチェックする必要があります。

忘れてはいけないのは、訓練が行われた課の記憶が、その課の訓練結果の記憶に変わるだけなのです。それは、ある領域にフィルターをかけ、そのフィルターにかかった情報を後で分析に使い、さらにフィルターをかけて別のものを使うというように、フィルターの性質/これらのフィルターが行われた領域がつながっている一方で、同じようなことが行われているのです。

そこには何も忘れられていない、同じ歴史を別の角度から分析したものです。過学習/過最適化/適応/適合/過適合と、どう呼んでもいい。