トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2606

 
Maxim Dmitrievsky#:

こんな疑問があります。

2つのモデルを使用します。一方は「買う」「売る」、もう一方は「取引する」「取引しない」を予測する。

まず、1つ目のモデルを学習させ、予測精度の低い例を「取引しない」、それ以外の良い例を「取引する」とマークし、次に2つ目のモデルを学習させます。

1つ目のモデルは訓練エリアだけでなく追加エリアでもテストされ、2つ目のモデルは両方のエリアで訓練されます。

これを数回繰り返し、同じデータセットで両モデルを再トレーニングする。サンプルで徐々に結果が良くなっていく。しかし、コントロールサンプルではそうとは限らない。

これと並行して、すべてのパスについて累積した不良取引のログを保存し、「取引しない」ためのすべての「不良」取引を第2モデルの学習のために収集し、すべてのパスについて不良取引のコピーが多いほど、それらを「取引しない」としてマークする機会が増えるという特定の原則に従ってフィルターにかけます。

例えば、各日付ごとに、すべての反復学習において、ある量の悪い取引が蓄積され、この量が閾値(平均、平均)を超える場合、それらの取引は「取引しない」とマークされます。残りの取引はスキップされます。そうでなければ、多くの学習反復がある場合、すべての取引を除外することが可能です。

coefficientで出力時のトレード数を 調整することができ、値が低いほど多くのトレードがフィルタリングされます

...この辺でもう書き飽きた.

このようなモデルの組み合わせをどのように改善すれば、新しい独立したプロットでの結果を向上させることができるのでしょうか?
なぜこのようなことができるのか、何か哲学的なものがあるのでしょうか。その他、再トレーニングの周回ごとにモデルが自然に改善し合う(誤差が減る)のですが、どうすればフィットを解消できるのでしょうか?

コンセプトが面白い!

1.フィッティングを解消する方法イテレーションについて、あまり理解していない。フィルタリング(2つ目)のモデルを一度学習させ、1つ目のモデルの性能が向上するかしないかを評価すればいいのでは?信号1〜2をフィルタリングするか、出力2を入力1に送り込めばよいのです。

2.改善方法
2.1。トランザクション後のパーティショニングをクラスタ・パーティショニングにしてみてはどうでしょう。確かに悪い信号は積み重なる。そして、良いものを。クラスターをマークアップしています。我々は、トランザクションのアプローチ(エントリ/候補に基づいてチップ)、ターゲティングを介して訓練することができる - 良いまたは悪いクラスタに自分自身を見つける。あるいは、クラスタによる訓練(クラスタによるチップ、1つの訓練サンプルオブジェクト-クラスタ)、ターゲット-同じ(良いクラスタの次のキャンドルか悪いクラスタ)、次のクラスタ-良いか悪いか(まあ、本質的には同じことでしょうが)のどちらかです。
2.2.これらの機種は、おそらく機能説明が異なるはずで、そうでなければ、2機種目からの限界効用は低いと思います。


3.コンセプトの背景にある哲学。誰が必要とするか、モデルの効率、利益が基準です。実験が支配する、哲学ではない)

 
Replikant_mih#:

コンセプトが面白い!

1.フィッティングの取り方イテレーションについて、あまり理解していない。フィルタリング(2つ目)のモデルを一度学習させ、1つ目のパフォーマンスを改善するかしないかを評価すればよいのではないでしょうか。信号1〜2をフィルタリングするか、出力2を入力1に送り込めばよいのです。

2.改善方法
2.1。ポストトランザクションマークアップをクラスタマークアップにしてみてはいかがでしょうか。確かに悪い信号は積み重なる。そして、良いものを。クラスターをマークアップしています。我々は、トランザクションのアプローチ(エントリ/候補に基づいてチップ)、ターゲティングを介して訓練することができる - 良いまたは悪いクラスタに自分自身を見つける。あるいは、クラスタによる訓練(クラスタによるチップ、1つの訓練サンプルオブジェクト-クラスタ)、ターゲット-同じ(良いクラスタの次のキャンドルか悪いクラスタ)、次のクラスタ-良いか悪いか(まあ、本質的には同じことでしょうが)のどちらかです。
2.2.これらの機種は、おそらく機能説明が異なるはずで、そうでなければ、2機種目からの限界効用は低いと思います。


3.コンセプトの背景にある哲学。誰が必要とするか、モデルの効率、利益が基準です。哲学ではなく、実験が支配する)。

1つ目のモデル(2つ目も)の一般化可能性を高めたいと考えています。彼女の信号を2つ目のモデルで単純にフィルタリングしても、1つ目のモデルの分類誤差はそれ自体では減らないのです。そこで、2つの学習済みモデルをデータセット上で実行し、1つ目の学習から悪い例を取り除くことで、誤差が小さくなるようにするのです。2枚目のエラーも落ちますしね。そして、これを何度か繰り返すわけです。回を重ねるごとに良くなっていくはずです。ただ、毎回テストサンプルで良くなってほしいのですが、バラツキが大きいんです。

そこで、他に何を加えるべきかと考えているのですが、反射もいいかもしれませんね :)

 
Maxim Dmitrievsky#:

1つ目のモデル(2つ目のモデルも)の汎化能力を向上させたいと考えています。その信号を2番目のモデルで単純にフィルタリングしても、1番目のモデルの分類誤差は内部的には減らない。そこで、2つの学習済みモデルをデータセット上で実行し、1つ目の学習から悪い例を取り除くことで、誤差が小さくなるようにするのです。2枚目のエラーも落ちますしね。そして、これを何度か繰り返すわけです。回を重ねるごとに良くなっていくはずです。ただ、毎回テストサンプルで良くなってほしいのですが、バラツキが大きいんです。

他に何を加えればいいか考えているのですが、もしかしたらアイデアだけでもいいのかもしれません :)

本当に2つのモデルが必要なのか、また、フィードバックによって結果が改善されるのか?
最初のモデルの境界を0.5ではなく、0.3と0.7、あるいは0.1と0.9にすることで、確率の低い取引は排除され、モデルは1つだけになります。
 
Aleksey Nikolayev#:

誤解を恐れずに言えば...。ですから、私は検証可能なものの主張を ベースにするのが好きです。

誤解のないようにお願いします。私は、「市場に長尺再生用アルゴリズムが存在しない、さもなければ遅かれ早かれ市場に残っている唯一のものになる」というあなたの論理構成の不正確さを指摘したまでです。どのようなニッチに存在するのか、具体的に示しました。市場全体を取り込むのではなく、そこに孤立して存在する理由。そして、検証可能な 例を挙げました。

Об авторе | QuantAlgos
  • www.quantalgos.ru
Приветствую вас в моем блоге. Меня зовут Виталий, занимаюсь написанием биржевых роботов c 2008 года. В 2009 и 2010 гг. участвовал в конкурсе ЛЧИ (лучший частный инвестор) под ником robot_uralpro, проводимом биржей РТС  (сейчас Московская биржа). Использовались HFT роботы, написанные на C#.  Результаты были следующие: В настоящее время продолжаю...
 
elibrarius#:
本当に2つのモデルが必要で、それらがOOSでの結果を改善するのでしょうか?
最初のモデルの境界を0.5ではなく、0.3と0.7、あるいは0.1と0.9にすればいいのです。そうすれば、低確率の取引は排除され、その数は減り、モデルは1だけとなります。

2ではより柔軟性があり、これらの確率は...取引回数が減るだけで安定性は変わりません。

 
Maxim Dmitrievsky#:

を2つ増やすと、これらの確率は...取引回数が減るだけで安定性は変わりません。

2でも安定しないんですね...。
 
博士

誤解のないようにお願いします。私は、「市場に長尺再生用アルゴリズムが存在しない、さもなければ遅かれ早かれ市場に残っている唯一のものになる」というあなたの論理構成の不正確さを指摘したまでです。どのようなニッチに存在するのか、具体的に示しました。なぜ、そこに単独で存在しても、市場全体をとらえられないのか。そして、検証可能な 例を挙げました。

ある文が実際に存在するかどうかを検証することは、その内容を検証することを意味しない。

仮に、毎年安定して稼いでいる人がいると仮定しても(これには問題がありがちだが)、それが同じアルゴリズムによって行われていることを証明するのは、どのように見えるのかさえ、まったくわからない。お言葉に甘えて」「そういうことです」ではなく、もっと本質的な選択肢を用意してほしいです。

 
Maxim Dmitrievsky #:

を2つ増やすと、これらの確率は...取引回数が減るだけで、安定性は変わりません。

3があればもっといい。

;)

 
elibrarius #:
2でも安定しないんですね...。

枚挙にいとまがない

 
Maxim Dmitrievsky #:

枚挙にいとまがない

すでに2機種をバンドルした動作例がありますね。1番目のモデル(0.1-0.9または0.2-0.8をカットオフとする)との変種を作り、OOSでの安定性を比較することは容易である。
理由: