トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 407

 

最後に、このモデルを計算し、既存のモデルに追加しました。収益性は過去に例のないほど向上し、サンプル外の同じエリアでは12.65%となっている

しかし、預金に対する負荷は小さくないようですが、我慢できる範囲です。最初の投稿の例で最適化しましたが、早く計算しないのであれば無理はしません。そこそこの列数とはいえ、かなりの行数なので、どうなることやら......。

これがその報告書です。トレードの比率はなかなか面白いのですが、ドローダウンがちょっと高いかな...。好みの問題ですが...。


 
ミハイル・マルキュカイツ

最後に、このモデルを計算し、既存のモデルに追加しました。収益性は過去に例のないほど向上し、サンプル外の同じエリアでは12.65%となっている

しかし、預金に対する負荷は小さくないようですが、我慢できる範囲です。最初の投稿の例で最適化しましたが、早く計算しないのであれば無理はしません。列は少ないのですが、行数が多いので、どうなることやら...。



より多くの案件を絞り込んで結果を推定してみる...。その数が多ければ多いほど、実際の取引でモデルを再トレーニングすべきタイミングを早く理解できるかもしれません。例えば、今私の試算では、テスト結果の最大損失系列は2トレードで、実トレードで4連敗した場合はモデルを再トレーニングする必要がある、というような感じです。平均すると1日あたり400/60=6〜7件の案件があり、つまり1日で再トレーニングする価値があるかどうかが分かります。

3ヶ月で400回、15分のタイムフレームでトレードしています。中央が1ヶ月のトレーニングサンプル、右と左が1ヶ月のサンプル外です。特に美しさを追求したロット。初期残高 $ 1000 :)全履歴の自動再トレーニングはまだやっていません。今はオプティマイザで重みを選んでいるので、そのためにJ-predictorを移植するか、別のニューロネットを使うべきでしょう。

そして、利益が出ている取引の90%は利益が出ているが、平均的なストップロスが平均的なテイクプロフィットより大きいため、平均的な負けトレードが大きくなっていることがわかる。最大収益シリーズでは、連続した2回の負けに対して33回の利益がありますが、33回のトレードの総利益は2回のトレードの総損失の4倍しかありません(ストップロスを短くする必要があります)。この設定で2月はもう儲からない。


 
最初の投稿の例が今夜までにカウントされなかったら、叩き出します。その作業自体が無意味であり、実用的な面白みがないのだから、なおさらだ。それに、面白半分で数日間もパソコンでレースをするのは嫌だ。結局のところ資源...
 
ミハイル・マルキュカイツ
最初の投稿から夕方まで例の計算をしないのであれば、叩き出します。しかも、この問題自体が無意味であり、実用的な興味はない。趣味で24時間コンピューターと競争するのは嫌だ。結局のところ資源...

検証現場やテスト現場でチェックされるのでは?フルファイルで計算する場合は、ポストhttps://www.mql5.com/ru/forum/86386/page4#comment_2530392 から検証ファイル上で確認することができます。
RNNで少し実験してみましたが、学習例を記憶しているだけで、(ノイズ予測器との組み合わせが重要)新しいデータではノイズ予測器が結果を台無しにしてしまうようです。すなわち、RNNは過学習になりやすい。少なくとも、0と1が混在する論理的な問題では。

しかし、0と1の間の平均値でかなりうまく補間できる可能性があります。

Машинное обучение: теория и практика (торговля и не только)
Машинное обучение: теория и практика (торговля и не только)
  • 2016.05.28
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
elibrarius:

検証はvalidationセクションとtestセクションのどちらで行うのですか?もし完全なファイルをカウントしているのであれば、https://www.mql5.com/ru/forum/86386/page4#comment_2530392
ポストから検証ファイルをチェックすることができます。RNNについて少し実験してみましたが、RNNは(ノイズ予測器と組み合わせて重要な)トレーニング例を記憶しているだけで、新しいデータではノイズ予測器が結果を台無しにしてしまうようです。つまり、RNNはオーバートレーニングしやすい。少なくとも0と1の論理問題では。

しかし、0と1の間の平均をうまく補間する可能性はある。


ファイル全体を実行し、トレーニングの結果を見て、モデルをここにアップロードし、検証のためにそれをチェックできる......。そんな感じだ。
 
しかし、最も興味深いのは、これから別の契約が始まり、前の契約で訓練されたモデルがどのように機能するかということでしょう。では、見てみましょうか...。
 
エリブラリウス

バリデーションやテストプロットで確認するのでしょうか?もし、フルファイルをあてにしているのであれば、ポストhttps://www.mql5.com/ru/forum/86386/page4#comment_2530392 から検証ファイルについて確認することができます。
RNNで少し実験してみましたが、学習例を記憶しているだけで、(ノイズ予測器との組み合わせが重要)新しいデータではノイズ予測器が結果を台無しにしているようです。すなわち、RNNは過学習になりやすい。少なくとも、0と1が混在する論理的な問題では。

しかし、0と1の間の平均値でかなりうまく補間できる可能性があります。


何をもってオーバートレーニングと呼ぶのか、また、予測因子がノイズとそうでないものをどのように判断しているのか。なぜ、ノイズの多い予測器が結果を台無しにし、重要な予測器が動かなくなったと考えるのでしょうか?市場には、永遠に機能するような重要な予測ツールはほとんどありません。

RNNは一般的に、静止系列を作り、極値からシグナルを取り、反転を期待するという特殊な方法で処理されるべきです。

というのも、どんなトレーニングも、ある種の非線形な意味を持つとはいえ、調整だからです......。

 
マキシム・ドミトリエフスキー


さまざまなMOモデルのパフォーマンスを比較しましたが、なぜ決定木で止めたのですか?私は一番エラーが出ないので、上に書きました。

ツリーも他のMOと同様にメリットとデメリットがあり、最初の投稿からの問題は、合理的充足の原則により、結果のコードも、再帰的生成も正確で高速なこの方式に止めました。

もっとも、このスレッドでの荒らしを避けるためには、ブーストで巨大な森を作ったり、ブーストで木を無限に改良したり、すべての手順を記述して説明すべきであったようですが・・・)。

 
ヴァシリー・ペレペルキン
道を踏み外したあなたや他の人たちを説得しようとしているのです。
決断するのは男だ、木じゃない、ふざけるのはやめろ。
 
ヴァシリー・ペレペルキン
決断するのは人であって、木ではない、ぶらぶらするのはやめなさい。
私も同意見ですが、完全ではありません。
男は状況を見極め、自分と家族が暮らす環境を理解しなければならない。
最近は世の中の発展がとても早く、情報環境という大きなフィールドで、誰でも見つけることができるようになりました。
あなたは、戦略的な概観の一部を切り離して、何が起こっているのかわからなくなっているだけで、男性保護者であるあなたを不必要な危険にさらしているのです。