トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 352

 
マキシム・ドミトリエフスキー

なんと間違って、分類モデルを作っているのですね。サンプルが大きいと汎化が強くなり、モデルは一般的にはロバストに、特定には精度が低くなり、それぞれ利益が小さくなる

効率に置き換えて考えてみましょう。複雑化した結果、システムの効率が下がれば、そのシステムは面白くない。利益+損失の減少は、効率の低下を意味します。

サステナビリティが高まれば、効率も上がるはずです。効率性は、利益/(利益+損失)比率と定義することができます。また、1トレードあたりの効率を取ることもできます。

 
ユーリイ・アサウレンコ

効率に置き換えて考えてみましょう。複雑化した結果、システムの効率が下がれば、そのシステムは面白くない。利益+損失の減少は、効率の低下を意味します。

サステナビリティが高まれば、効率も上がるはずです。効率性は、利益/(利益+損失)比率と定義することができます。取引ごとのKPIも検討できる。


VSには適用できない)) 長期的な効率は上がり、短期的な効率は下がることが判明している)戦略と戦術がある...短期的な学習は戦術的にNSを助け、長期的な学習は-異なる要因が影響するかもしれない...。
 
ユーリイ・アサウレンコ

効率に置き換えて考えてみましょう。複雑化した結果、システムの効率が下がれば、そのシステムは面白くない。利益+損失の減少は、効率の低下を意味します。

サステナビリティが高まれば、効率も上がるはずです。効率性は、利益/(利益+損失)比率と定義することができます。トレードごとのKPIを取ることも可能です。

KPIという名の自転車は避けよう。

計量経済学では情報量規準が使われる。

以下はその定義 です。

情報量規準とは計量経済学(統計学)で用いられる、モデルのデータへの「適合度」を、使用する推定パラメータ数で補正(ペナルティー)した相対的な品質を考慮した指標 です。つまり、モデルの精度と複雑さのトレードオフに基づく基準である。

情報的基準は、モデル同士の比較にのみ使用され、その値に意味のある解釈を与えることはない。統計的仮説検定の意味でのモデルの検証はできない。一般的に、基準の値が低いほど、モデルの相対的な品質が 高いとされる。


モデル選択を前提としたパッケージをとれば、情報量基準のいずれかが使われることになる。

 
ディミトリ


Faaは正しい指摘を書いているが、正しく述べていない。

系列と予測変数のセットがあります。シリーズを3つに分けて、トレーニングサンプルとフォワード(最も単純なケース)を作るのです。

例えば、20個のモデルを作るわけです。

ポイントは、リストからのモデルの選択は、トレーニングサンプルでのベストでもフォワードサンプルでのベストでもなく、実行されることです。そして、学習サンプルとフォワードサンプルでほぼ同じ品質スコアを与えるモデルを選択します。

お互い様だ。

より単純なものを選択するために情報的基準が用いられるが、情報的基準は決してフォワードテストを排除するものではない。

 
サンサニッチ・フォメンコ

KPIという自転車を飛ばそう。

計量経済学では情報量規準が使われる。

一方は絶対に邪魔にならないし、他方に取って代わるものでもない。経済学では、KPIに絶対的に対応する意味での効率性の基準がある。何も発明する必要はないのです。

この場合、プロセスではなく、結果を評価しているのです。もはや、プロセス基準にはこだわらない。システムはブラックボックスです。そのため、箱の特性を比較しているのです。

また、投資額1ルーブルあたりの効果、取引の平均効率などの評価基準もある。そんな基準でビジネス全体が動いているのです。結局、私たちは何をしているのでしょうか?

 
マキシム・ドミトリエフスキー
よかったです。システムの安定性を高め、ドローダウンをなくすことができました。総利益は下がってもいないのに、一定に推移しています。問題は、そのような落とし穴から抜け出せるような取引はどうなったのか、ということです。もし、削除していなければ、それだけでシステムの利益は増えていたでしょう。
 
ユーリイ・アサウレンコ
よかったです。ドローダウンをなくすことで、システムの安定性を高めているんですね。利益総額が下がってもいないのに、一定に保たれている。問題は、そのような落とし穴から抜け出せるような取引はどうなったのか、ということです。もし、削除していなければ、それだけでシステムの利益は増えていたでしょう。

もし、異なるタイムフレームでニューロンをトレーニングすれば、異なる結果が得られ、比較することはできません。 シグナルは異なり、モデルは異なってトレーニングされ、それに影響を与えることはできません。何も削除していない)
 
マキシム・ドミトリエフスキー

もし、異なる時間間隔でニューロンをトレーニングすれば、異なる結果が得られ、比較するものは何もありません。何も削除していない)

オプティマイザーが削除されるのは理解できる。しかし、結果の再現性はどんな実験にも必要な条件である。つまり、異なるセクションでトレーニングしたときに、テストで異なる結果が出たとしたら、それは考えるべき理由です。

同じNSに同じToRで音声を認識するように教えたのに、訓練方法が違うので比較できないと判断されたとします。

 
ユーリイ・アサウレンコ

オプティマイザーが削除されるのは理解できる。しかし、結果の再現性はどんな実験にも必要な条件である。つまり、異なるセクションでトレーニングしたときに、テストで異なる結果が出たとしたら、それは考えるべき理由です。

同じNSに同じToRで音声を認識するように教えたのに、訓練方法が違うので比較できないと判断されたとします。


しかし、現在のモデルでは、小さなデータセットと巨大なデータセットを同じように近似させることは不可能で、それほど複雑ではありません。
 
マキシム・ドミトリエフスキー

まあ、そんなところですが、現在のモデルでは不可能です。小さなデータセットと巨大なデータセットを同じように近似させるほど複雑なものではありません。

一般的に分単位で言えば、市場は統計的に均質であり、つまり統計は週ごと、月ごとにほとんど変化しない(安定している)。質問内容を勉強していないのでわかりません。私の記憶では、1分間に取り組んでいますね。

原理的には、単純なシステムの方が収束が早いはずです。つまり、1つの高い最大値を持っている。ちなみに、この高値は、私たち自身が「間違った」予測因子を使って生成したものです。

理由: