トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 962

 
マキシム・ドミトリエフスキー

私はエントリープライスだけで、チップに悩まされることはありません :) 主なものはターゲットの選択です。

マキシム・ドミトリエフスキー

この先どうしたらいいのかわからないし、誰も考えてくれないし、考えるのも億劫だ。

の考え方は?

価格、価格の偏差、価格の対数......をフィードする。また、その出力はどのようなものでしょうか?- imho、最大引用メカニズム、それはあなたが小さなTFで見つけることができるものです。

あなたはすでに価格の動きの方向を知っているので、新しいバー ハイ[1]またはロー[1]の最初の更新(壊れた)されるかを推測してみてください - あなたは予測することを学ぶなら、それは、利益です。

;)

 
イゴール・マカヌ

の考え方は?

フィード・イン・プライス、プライス・デビエーション、プライス・ロガリズム......。また、出力はどのようにすればよいのでしょうか?- imho、最大引用メカニズム、それは価格を使用して、小さなTFで見つけることができます。

あなたはすでに価格の動きの方向を知っているので、新しいバー ハイ[1]またはロー[1]の最初の更新(壊れた)されるかを推測してみてください - あなたは予測することを学ぶなら、それは、利益です。

;)

引用の仕組みは別チケットです :)

5分から15分までのタイムフレームで使用したい。引用とは関係ない規則性をキャッチしていることは、スクリーンショットですでに示しました。しかし、発振器での動作はあまり長くなく、せいぜい2倍程度のトレースです。

内訳を見ると面白いですね、やってみようかな。

 

歴史/未来=30000/1000。入力 - Close と Open の差の時系列: iClose(NULL, 0, i+j+1+Shift) - iOpen(NULL, 0, i+j+1+Shift), j は 0 から 99(合計100個).ターゲットはバーの色(0,1)です。

チャート上ではOOS期間(Future)のみ。

広がりはありません。注文を入力するレベルは0です。


スプレッド-2点。注文を入れるレベル - 0.

スプレッド-2点。注文を入れるレベル - 0.1

スプレッド-2点。注文を入れるレベル-0.15。

クラス間の述語の分布。精度 - 0.525.


 
イリヤ・アンチピン


クラス間の述語の割り振り。精度は0.525です。

10〜20万個のサンプルがありますが、そのうちの1000個を切り取れば、より良いペアリングがある可能性が高いですからね。

 

鮮やかなものを作るのはとても簡単です。天才的なものが作られる状態には、なかなか到達できないのです。アメデオ・モディリアーニ :)

だから、いろいろな種類のハーブを試す必要があります。

 
マキシム・ドミトリエフスキー

このようなモデルもあり、電車はさまざまな改造を施され、100%動作するものもあれば、このようにOOSの電車を使ったものもあります。(4ヶ月のトレーニング 10ヶ月のOOS)その後、クソ。

すでにすべてがクリアになっているので、デモをテストする意味がわからない。

ああ、デモが無くなったのは残念だ。そして、あなたは彼がモデルを選択するCBができないと言う記事を、持ってきたにもかかわらず、見てあまりにも多くのCBにあるため、すべて、そしてフォーラムで多くの時間は、同じことを書いた。

 
Dr.トレーダー

そうですね、デモがなくなってしまったのは残念です。そして、あなたはそれがOOSのモデルで選択することはできません書かれている非常に同じ記事が、あまりにも多くの外観をOOSにしているので、すべて、ここで何度もフォーラムで同じことを書いた。

その結果、こうなりました...。

このテーマについて、他のスレッドから私の理由・提案をコピーします。

モデルを推定するためのフィードバックが少し多すぎるように思いますので、なぜこの部分だけセレクションを行うのか不思議に思っていました。
確かに特定のケースでは有効ですが(すべてのセグメントで良い結果が得られた)、万能ではない ような気がします。

やはり、あまり良くないデータに出会うこともありますから。例えば、トレーニングプロットで40%の誤差が出るように学習させたモデルが、テストプロットでは偶然にも30%の誤差を示すかもしれません。しかし、仮に2番目のモデルが両セクションで35%まで学習したとしよう。2番目のモデルの方が明らかに優れています。しかし、テストプロットだけを選択すると、最初のプロットが選択されます。比較のために、モデルを評価するオプションがあります。
トレーニングプロットのみでの評価
またはすべてのプロットの合計で
またはDarchのように、Err = (ErrLeran * 0.37 + ErrValid * 0.63) - これらの係数はデフォルトですが、変更することも可能です。

最後のオプションは最も興味深いもので、両方の誤差を考慮しますが、検証プロットのウェイトが大きくなります。
実際には、例えば、Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4) のように式を拡張することができます。

例えば、ErrLeranとErrTestが5%以上違えば、このモデルを棄却する、といったデルタエラーによる選択も必要かもしれません(San Sanichが話していた)。そして、残りの部分から選択すること。
 
エリブラリウス
その結果、こうなりました...。

このテーマについて、他のスレッドから私の理由・提案をコピーします。

モデルを評価するためのOOSが足りないように思えるのですが、だからこそ、なぜこの部分だけで選別するのか不思議でした。
確かに特定のケースでは有効ですが(すべてのセグメントで良い結果が得られた)、万能ではない ような気がします。

やはり、あまり良くないデータに出会うこともありますから。例えば、トレーニングプロットで40%の誤差が出るように学習させたモデルが、テストプロットでは偶然にも30%の誤差を示すかもしれません。しかし、仮に2番目のモデルが両セクションで35%まで学習したとしよう。2番目のモデルの方が明らかに優れています。しかし、テストプロットだけを選択すると、最初のプロットが選択されます。比較のために、モデルを評価するオプションがあります。
トレーニングプロットのみでの評価
またはすべてのプロットの合計で
またはDarchのように、Err = (ErrLeran * 0.37 + ErrValid * 0.63) - これらの係数はデフォルトですが、変更することも可能です。

最後のオプションは最も興味深いもので、両方の誤差を考慮しますが、検証プロットのウェイトが大きくなります。
原理的には、例えば、Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4) のように式を拡張することができる。

例えば、ErrLeranとErrTestが5%以上違えば、そのようなモデルは拒否する、というようなデルタエラーによる選択も必要かもしれません(San Sanichがそれについて話していたのですが)。そして、その中から選択すること。
IMHOでは、誤差の総和の計算式を除いて、もっと比率が必要で、誰かがここで、セクションごとの誤差は、Train <= Valid <= Test という相関があると書いていたような気がします。
 
イワン・ネグレシュニー
IMHOでは、エラー集計式以外にも、その比率がもっと必要で、誰かがここで、セクションごとのエラーは、Train <= Valid <= Test という相関があるはずだと書いていたような気がするのです。
トレインはトレーニングエラーによって最小化され、その他のエリアはランダムに上下にふらつくことがあります。要は、あまりグラグラしないことが大事なんです。
 
エリブラリウス
トレインはトレーニングの誤差で最小化され、他の部分は上下にランダムにぶら下がることができます。要はぶら下がり過ぎないことです。

また、あなた自身は、純粋な偶然以外に、下方乖離の許容を正当化するものは何ですか?

それから、このランダム性に対抗しないのであれば、あなたの主な仕事は何ですか?それは、バリデーションとOOSとMOの両方の意味を一般的に否定しているからです))。

理由: