トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2106

 
Vladimir Perervenko:

どこまで?

RMSEを最小化するためとかではなく、フィットネスポンドをそこに置くためです。

 
Vladimir Perervenko:

どうですか?

500ポイント先のモデルを予測しているところです。

4つの正弦波(モデル)予報を、実は線形予報にするのは簡単です。

 
mytarmailS:

誰も興味がないと思い、削除しました。コードを送ることはできますが、読みやすい形に翻訳する必要があります。

ところで、アニーリング法の不安定さに直面し、どう対処したらいいのか分からないほど、結果が不安定で、パラメータが大きく飛びます...。


私はこう思う

まず、ランダムに始点を初期化する。

そして、解決策が見つかったら、それを保存します。

そして、再びバーンアウトを開始するが、見つかった解の開始パラメータで、といった具合に......。

ぜひ、LINEをください。

アニールが不安定になる。rgenoutを使用します。テスト済み、信頼性あり。

モデルは損失関数を適用する。自分で書いて、損失関数を挿入できるモデルであれば、試してみてください。

 
mytarmailS:

出来上がったパターンを500点満点で予想しているところです

が、最初の1-2回だけトレードすればいいと思う。

と、パラメータの見つけ方を学ぶ必要があります。

 
マキシム・ドミトリエフスキー

2種類の演出モデルを使い分けることができる

私の基本戦略を使って別に教えようとしたのですが、結果は悪く、サンプリングのバランスが悪いせいだと思います。ゼロが多すぎて、そこから学ぶのです。

別のモデルで演出を教えるというバリエーションも試してみたいです。最初のモデルはボラティリティに、2番目のモデルはそのベクトルに訓練することが判明する。しかし、やはりサンプル数は多いほうがいい。

 
Aleksey Vyazmikin:

私は自分の基本戦略を別に教えようとしたのですが、結果は悪く、サンプリングのバランスが悪いせいだと思います - ゼロが多すぎて、トレーニングはそれに基づいて行われます。

別の選択肢として、別モデルで方向性を教えるという方法も試してみたいです。最初のモデルはボラティリティ、2番目のモデルはそのベクトルについて訓練することが判明する。しかし、やはりサンプルは大きい方がいい。

不均衡なクラスには、オーバーサンプリングを使用することができます。2型と3型の両方を回したが、基本的に差はない
 
Maxim Dmitrievsky:
アンバランスなクラスに対してオーバーサンプリングを使用することができます。2型と3型の両方を動かしていますが、基本的に差はありません。

つまり、ターゲット "1 "の行が重複している?試してみたところ、CatBoostでは ほとんど結果が変わりませんでした。おそらく、ノイズを加える必要があるのでしょう。

 
Aleksey Vyazmikin:

I.e. ターゲット "1 "の行が重複している?試してみたところ、CatBoostではほとんど結果が変わりませんでした。おそらく、ノイズを加える必要があるのでしょう。

重複して使用しないでください。オーバーサンプリングでググると、SMOTEなど。私も、アンバランスが大きいと学習しません。オーバーサンプリング後は全て正常です。
 
Aleksey Vyazmikin:

I.e. ターゲット "1 "の行が重複している?試してみたところ、CatBoostではほとんど結果が変わりませんでした。おそらく、ノイズを加える必要があるのでしょう。

こうあるべきなのです。NSのクラスによるバランス取りが必要。木で十分です。
 
Maxim Dmitrievsky:
重複はしない。SMOTEなどのオーバーサンプリングでググってみてください。また、大きなアンバランスで学習することはありません。オーバーサンプリング後、すべて問題なし。

そうですね、基本的には予測指標にノイズを加えることになります。1を含む領域の選択を増やすことで量子化境界線に影響を与えるかもしれませんが、アイデアによって、同じ効果が重複の追加にあるはずです、私が仮定する唯一のものは、学習が始まる前にCatBoost アルゴリズムによって重複がカットされることです(検証が必要)、次にはい - オプションです。

理由: