再教育 - ページ 4

 
Aliaksandr Hryshyn:
モデル/アドバイザーの再トレーニングを最小限に抑えるために、誰がどのようなテクニックを使っているか?
この場合、歴史的なデータの分析なしには成り立たないということから話を進めなければならず、「歴史に合わせる」という概念は完全に排除されなければならない。一義的であるべきは、TSの考え方そのもの、何をベースにしているかということです。各TSは、1つまたは複数の指標の読み取りに基づいています。後者は、サンプリング量Nなどのパラメータを持ち、サンプリング量全体を分析した後に判定に至る。すべてのヒストリカルデータを等しく扱える指標はないと考えるのが自然である。そのため、SLやTPといったパラメータが助けになるのです。ここでは、最適化が必要な3つの基本パラメータを紹介します。TSが選択されたTFのヒストリカルデータの全範囲を通過できるように、それらの値を見つける必要がある。全期間のビルドアップ・チャートを得た上で、最悪の区間では、市場の多面性により、TSの原案が機能しない事実を分析し、受け入れる必要がある。全体のプロットを「悪」と「善」、「訓練」と「前進」に分けて検索してみるのは時間の無駄です。TSは、利用可能な歴史的資料をすべて使って評価する必要があります。
 
Youri Tarshecki:

では、フォワードのオーバートレーニング、アンダートレーニングはどのように判断するのか、教えてください。オーバートレーニングとアンダートレーニングでは、何か劣化の仕方が違うのでしょうか?

トレーニング条件の良し悪しを判断するには、それに対応するサンプル外テストの良し悪しを見るしか ない。そして、その結果を比較することで、初めて最適化が過剰なのか過小なのかが分かるのです。しかし、最適化不足を扱ったトピックはどこにもありませんね。なぜかみんな、問題の根源をコード品質ではなく、神話的な過剰最適化に求めてしまうのです。

前方劣化はシステムの汎化性(安定性、未知データへの適合性)を評価するものである。能力が低いうちは、オーバートレーニングでもアンダートレーニングでも、どっちでもいいんです。しかし、Expert Advisorが古典的に訓練されている場合、つまり、パラメータのセットとMTテスターを使用している場合、(技術的な観点から)訓練不足になることはないでしょう。また、学習が独自のアルゴリズムで行われる場合、よく知られた方法(早期停止など)で「誤差が最小」となる最適点(OOSにおける最良の結果)を求めることができる:この点では、最適化不足はすでに終わっており、最適化過剰はまだ起こっていない。残念ながら、標準のテスターでは、最適化期間とOOSのシステム性能を比較するような自動的な機能は提供されていません。MTのOOSはフォワードテストです。だから、太字で強調されているのは、実は私が言っていることと同じなのです。トピックスターターが再教育について質問しているので、ここでの回答はそれに関するものです。学習不足については、最適化の度合いではなく、予測変数の選択、入力データの準備方法、学習サンプルの深さ、その他のメタ知識を含む抽象的な「コードの品質」を意味するとすれば、学習不足は非常に単純に、最適化の結果が 正でないことで定義されます。

 

アンダートレーニングについては同意しかねますが、技術的には難しいことではありません。つまり、劣化の事実そのものは、オーバートレーニングかアンダートレーニングかを語るものではありません。

もし筆者がこの言葉から気を取り直し、最適とはガウス単位の何かであると理解すれば、最適なトレーニングの量と密度をどう決めるか、という少し違った形で問いを立てることになるだろう。

そうすれば、より具体的な話ができるようになります。

個人的には、テストの結果で定義しています。

 

Stanislav Korotky:
Термин этот не дурацкий, а давно устоявшийся и "одобренный лучшими собаководами"

実は、オーバーフィッティングは、本当のオーバートレーニングではなく、オーバーフィッティングなのです。

 

少し視点を変えて、この問いを見てみましょう。

学習されたモデル/TSは(その可能性があるならば)過去のデータからいくつかの規則性を記憶することができるが、その不完全さゆえに「ノイズ」も記憶してしまうのである。ここでは、TSが「学習」し、新しいデータで良い結果を得られないことをノイズと考える。ノイズは他の戦略では異なるかもしれない。

興味深いのは、TS/モデルがノイズを「記憶」できないように、少なくとも部分的に制限するにはどうしたらいいかということです。あるいは、過去のデータをどのようにノイズから「クレンジング」するか、やはりTSとの関係でノイズが発生します。

写真にある簡単な例ですが、1行目と2行目が同じモデルであると仮定します。

もう一つの例ですが、2本の縦線の 間の領域では、モデル(赤線)は非常に間違っています。

 
ところで、この写真は何なのでしょうか?軸についてはどうでしょうか。最適化の数?
 
Комбинатор:

実は、オーバーフィッティングは、本当のオーバートレーニングではなく、オーバーフィッティングなのです。

まさにその通りです。フィッティングもオーバーフィッティングも同じことです。
 
Youri Tarshecki:
まさにその通りです。装着・再装着はチンコと同じ
フィットや再フィットが全量の履歴データに対して行われる場合、それはTSの品質を向上させるだけである。
 
Youri Tarshecki:
ところで、この写真は何なのでしょうか?軸には何を?最適化の数?
トレーディングに特化したものではありません。モデル(1枚目の写真の線1と2、2枚目の写真の赤い線)がデータ(小さな四角とその下の点)に対してどのように「誤り」を示すかの簡単な例を示しています。

TSはプラスになるために、指標のこの値を使用して、価格の特定のプロパティを予測する必要がありますどのように - 横軸には、指標の値になり、ポイントのために、縦軸になることを仮定してみましょう。セリフについて - TSがどう予測するか。この予測に基づいて、TSは取引を行うことができます。そんな条件付きの例です。予測される特性は、トレンドの有無や横ばい、ボラティリティなどである。
 
Aliaksandr Hryshyn:
トレーディングに特化したものではありません。これらは、モデル(最初の図の線1と線2、2番目の図の赤い線)がデータ(小さな四角とその下の点)に対してどのように「誤り」られるかの最も簡単な例である。

横軸を指標値とし、縦軸をポイントとする - TSが利益を得るために、この指標値を使用して特定の価格プロパティを予測する方法。セリフについて - TSがどう予測するか。この予測に基づいて、TSは取引を行うことができます。そんな条件付きの例です。予測される特性は、トレンドの有無や横ばい、ボラティリティなどである。

水平方向には、歴史の同じ瞬間に 訪れた、指標値または指標群の最適化操作の回数 があるはずです。そして縦線は、システム全体のチェックの結果です。それから、オーバートレーニング、アンダートレーニング、それらが何であるかという話もできます。そうすると、カーブがかなり違ってきます。ほぼ正規分布になりますが、唯一違うのは、ある時点でパス回数を追加しても(あるいは指標パラメータのステップを減らしても)、新しいものは得られないということです。

パス回数の調整はどのように行うのですか?

1.単純にトレーニングの回数を変えたり、指標となるパラメーターの距離(ステップ)を変えたりすることで、より効果的なトレーニングが可能になります。

2.OOSチェックの「ステップ」に関連して、トレーニングのための履歴の深さを変えることによって。そうすると、歴史の同じ部分が、「隣人」の数は違えど、異なる回数で最適化されることになります。

3.遺伝的最適化アルゴリズムを変更することで、もしそれを使うなら例えば、世代数、ランダム性などを変えることで、です。

PEREやNEDOと戦うためのツールは、おそらくここにすべてある。

また、最適化(フィッティング)の際に、結果ではなく、チェックに正確に焦点を当てれば、システム自体が不採算かどうかで、曲線の性質が変わることはないことを記しておく。つまり、システムが負けているのであれば、過剰に訓練してもさらに負けるだけ、それだけです。学習の課題は、最適なパラメータを見つけることである。そして、コーディングの仕事は、実行可能なバリエーションを見つけることであり、トレーニング最適化は、それ自体では何も新しいものを作り出さないのです。