トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 360

 
ミハイル・マルキュカイツ
面白い!!!しかし、問題は少し違う。仮にTSが20%減少したとします。質問は何ですか?ドローダウンから抜け出し、トップで稼ぐのか、それともドローダウンが続くのか?TSの再最適化が必要かどうかは、どのように判断するのでしょうか?
イマイチ、この「HOW...」は、他のシステムと何ら変わりはない。MOかそうでないかは関係ない。基準を選び、いつ、何をするかを決める。
 
ミハイル・マルキュカイツ
面白い!!!しかし、問題は少し違う。仮にTSが20%減少したとします。質問は何ですか?ドローダウンから抜け出し、トップで稼ぐのか、それともドローダウンが続くのか?TSの再最適化が必要かどうかは、どのように判断するのでしょうか?

TSは最適化されすぎてはいけません。それがTSを作成するポイントです。他はすべて数合わせ
 
サンサニッチ・フォメンコ

CUは再教育されるべきではない。それがCUを作った意義である。それ以外はすべて数合わせのようなものです。
再教育しても、再教育しなくても、遅かれ早かれ、どのような形であれ、故障し始める。ミハイル・マルキュカイトの 質問だったと思うのですが、 「なぜ、そのタイミングが わかるのですか?
 
ユーリイ・アサウレンコ
再教育されようがされまいが、遅かれ早かれ、とにかく漏れるようになるのです。それはミハイル・マルキュカイトの 質問だったと思うのですが、 いつ」というのはどうやってわかるのでしょうか?


再教育という言葉を理解していない。

まず、TCが再教育されていないことを懸念する必要があります - その事実を証明してください。そして、その証明は繰り返されなければならない。再教育されていないことを証明できなければ、使用することはできません。

 
サンサニッチ・フォメンコ


再教育という言葉を理解していない。

まず、TCが再教育されていないことを懸念する必要があります - その事実を証明してください。そして、その証明は繰り返されなければならない。再教育されていないことを証明できなければ、使うことはできません。

分かるような気がします)。

Переобучение (переподгонка, пере- в значении «слишком», англ. overfitting) в машинном обучении и статистике — явление, когда построенная модель хорошо объясняет примеры из обучающей выборки, но относительно плохо работает на примерах, не участвовавших в обучении (на примерах из тестовой выборки).

Это связано с тем, что при построении модели («в процессе обучения») в обучающей выборке обнаруживаются некоторые случайные закономерности, которые отсутствуют в генеральной совокупности.

Даже тогда, когда обученная модель не имеет чрезмерного количества параметров, можно ожидать, что эффективность её на новых данных будет ниже, чем на данных, использовавшихся для обучения[1]. В частности, значение коэффициента детерминации будет сокращаться по сравнению с исходными данными обучения.

Способы борьбы с переобучением зависят от метода моделирования и способа построения модели. Например, если строится дерево принятия решений, то можно обрезать некоторые его ветки в процессе построения.
https://ru.wikipedia.org/wiki/Переобучение

これは、やや簡略化した定義だと思います。だから、まだ使えるだけでなく、もしかしたら使う必要があるかもしれない。すべては仕様次第です。

粗いモデルを使っていますが、これはオーバートレーニングとも解釈できます。

 
Mihail Marchukajtes:
おもしろい!!!!しかし、問題は少し違う。仮にTSが20%減少したとします。質問は何ですか?ドローダウンから抜け出し、トップで稼ぐのか、ドローダウンが続くのか?TSの再最適化が必要かどうかは、どのように判断すればよいのでしょうか?

テスターで新たに訓練されたモデルは、この期間の20%のドローダウンを示していないと、実際のアカウントで古いモデルが開かれた場合 - その後、それらを明確に再トレーニング、モデルはその関連性を失っており、アカウントに新しいパターンを取る必要があります。なぜ、新しい取引のたびにモデルを再トレーニングしないのですか?そして、入力する案件の履歴を 更新してあげましょう。
 
Maxim Dmitrievsky:

もし、テスターで新しく訓練したモデルがこの期間中に20%のドローダウンを与えず、リアル口座の古いモデルが与えたなら - 再訓練してください、モデルはその関連性を失い、新しいパターンを考慮する必要があります。なぜ、新しい取引のたびにモデルを再トレーニングしないのですか?そして、入力するためのお得な 更新履歴も教えてあげてください。
))昨日、ちょうどこのテーマについて考えていたところです。取引を記録し、終了後にトレーニングサンプルを提出して入力するのが良いと判断したのです。ゲームが進むにつれて、もっと勉強したいと思います。
 
ユーリイ・アサウレンコ

分かるような気がします)。

これは、やや簡略化した定義だと思います。したがって、使用することは可能であるばかりでなく、おそらく必要なことでもあります。すべては仕様次第です。

粗いモデルを使っているので、オーバーフィットと解釈することもできます。


引用元では過学習は特徴の考察が微妙すぎる、粗学習を過学習としているのか!?

あなたが一番よく分かっているはずです。今に始まったことではありません。

 
Maxim Dmitrievsky:

もし、テスターで新しく訓練したモデルがこの期間中に20%のドローダウンを与えず、リアル口座の古いモデルが与えたなら - 再訓練してください、モデルはその関連性を失い、新しいパターンを考慮する必要があります。なぜ、新しい取引のたびにモデルを再トレーニングしないのですか?そして、入力する案件の履歴を 更新してあげましょう。

トレーニング、再訓練、再教育(スーパーフィッティング)は、根本的に異なるものです。

このような新しいバーごとのトレーニングは、このフォーラムやTA内でも一般的に咀嚼され、噛み砕かれています。

オーバートレーニング(過適合)との戦いにおいて、私は2つの方法を知っています。

1.ターゲット変数に関係しない予測変数の集合のクリーニング - ノイズからの予測変数の入力集合のクリーニング。このスレッドの最初の100投稿で詳しく説明されています。

2. ノイズから除去された予測変数のセットを持って、トレーニングサンプルでモデルのフィットを開始し、次に1つのファイルからのランダムなサンプルであるテストと検証のサンプルでフィットを開始します。3つのセットの誤差は、ほぼ同じになるはずです。

3.そして、先ほどとは別のファイルを取り出して、その上でモデルを走らせます。今回も前回と同じ程度の誤差になるはずです。

4.なぜなら、最初の3つのステップの結果、スランプはモデルのパラメータとして得られ、それを超えるとモデルが機能しなくなり、すべてをやり直す必要があるからです。

 
サンサニッチ・フォメンコ


引用元: オーバートレーニングは特徴を細かく検討しすぎて、粗くすることがオーバートレーニングになるのか!

あなたが一番よく分かっているはずです。今に始まったことではありません。

それも初めてではない。しかし、なぜ粗製乱造だけなのか。もう一つの例は、定義の中にある「過度に複雑なモデルは、存在しないもの、つまり見かけ上のパターンを見つける」です。

オーバートレーニングについて、非常に単純な、あるいは一面的な理解をしているようですね。

サンサニッチ・フォメンコ

学習とオーバートレーニング、オーバートレーニング(過適応)は根本的に違うものです。

新しいバーのたびにこのようなトレーニングが行われ、このフォーラムや一般的にTA内で咀嚼されます。

オーバートレーニング(オーバーフィッティング)対策として、私は2つの方法を知っています。

.....

4.もしこれらのチェックを定期的に行っていれば、「20%のスランプは再トレーニングのシグナル」というご質問は、最初の3つのステップの結果、モデルのパラメータとしてスランプが発生し、それを超えるとモデルが動作しなくなり、最初からやり直さなければならないので、全く意味がありません。

まあ、そうなんですけどね。でも、なかなか噛み砕けない。文献では、この選択肢、つまり劇中の事前指導を真剣に検討している。いつどのようにできるか、できないかは別問題です。どこにでも限界はある。
理由: