トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 352 1...345346347348349350351352353354355356357358359...3399 新しいコメント Yuriy Asaulenko 2017.05.16 10:47 #3511 マキシム・ドミトリエフスキー なんと間違って、分類モデルを作っているのですね。サンプルが大きいと汎化が強くなり、モデルは一般的にはロバストに、特定には精度が低くなり、それぞれ利益が小さくなる効率に置き換えて考えてみましょう。複雑化した結果、システムの効率が下がれば、そのシステムは面白くない。利益+損失の減少は、効率の低下を意味します。サステナビリティが高まれば、効率も上がるはずです。効率性は、利益/(利益+損失)比率と定義することができます。また、1トレードあたりの効率を取ることもできます。 Maxim Dmitrievsky 2017.05.16 10:52 #3512 ユーリイ・アサウレンコ効率に置き換えて考えてみましょう。複雑化した結果、システムの効率が下がれば、そのシステムは面白くない。利益+損失の減少は、効率の低下を意味します。サステナビリティが高まれば、効率も上がるはずです。効率性は、利益/(利益+損失)比率と定義することができます。取引ごとのKPIも検討できる。 VSには適用できない)) 長期的な効率は上がり、短期的な効率は下がることが判明している)戦略と戦術がある...短期的な学習は戦術的にNSを助け、長期的な学習は-異なる要因が影響するかもしれない...。 СанСаныч Фоменко 2017.05.16 10:56 #3513 ユーリイ・アサウレンコ効率に置き換えて考えてみましょう。複雑化した結果、システムの効率が下がれば、そのシステムは面白くない。利益+損失の減少は、効率の低下を意味します。サステナビリティが高まれば、効率も上がるはずです。効率性は、利益/(利益+損失)比率と定義することができます。トレードごとのKPIを取ることも可能です。KPIという名の自転車は避けよう。計量経済学では情報量規準が使われる。以下はその定義 です。情報量規準とは、計量経済学(統計学)で用いられる、モデルのデータへの「適合度」を、使用する推定パラメータ数で補正(ペナルティー)した相対的な品質を考慮した指標 です。つまり、モデルの精度と複雑さのトレードオフに基づく基準である。情報的基準は、モデル同士の比較にのみ使用され、その値に意味のある解釈を与えることはない。統計的仮説検定の意味でのモデルの検証はできない。一般的に、基準の値が低いほど、モデルの相対的な品質が 高いとされる。モデル選択を前提としたパッケージをとれば、情報量基準のいずれかが使われることになる。 СанСаныч Фоменко 2017.05.16 10:58 #3514 ディミトリ Faaは正しい指摘を書いているが、正しく述べていない。系列と予測変数のセットがあります。シリーズを3つに分けて、トレーニングサンプルとフォワード(最も単純なケース)を作るのです。例えば、20個のモデルを作るわけです。ポイントは、リストからのモデルの選択は、トレーニングサンプルでのベストでもフォワードサンプルでのベストでもなく、実行されることです。そして、学習サンプルとフォワードサンプルでほぼ同じ品質スコアを与えるモデルを選択します。お互い様だ。より単純なものを選択するために情報的基準が用いられるが、情報的基準は決してフォワードテストを排除するものではない。 Yuriy Asaulenko 2017.05.16 11:15 #3515 サンサニッチ・フォメンコKPIという自転車を飛ばそう。計量経済学では情報量規準が使われる。一方は絶対に邪魔にならないし、他方に取って代わるものでもない。経済学では、KPIに絶対的に対応する意味での効率性の基準がある。何も発明する必要はないのです。この場合、プロセスではなく、結果を評価しているのです。もはや、プロセス基準にはこだわらない。システムはブラックボックスです。そのため、箱の特性を比較しているのです。また、投資額1ルーブルあたりの効果、取引の平均効率などの評価基準もある。そんな基準でビジネス全体が動いているのです。結局、私たちは何をしているのでしょうか? Yuriy Asaulenko 2017.05.16 11:28 #3516 マキシム・ドミトリエフスキー よかったです。システムの安定性を高め、ドローダウンをなくすことができました。総利益は下がってもいないのに、一定に推移しています。問題は、そのような落とし穴から抜け出せるような取引はどうなったのか、ということです。もし、削除していなければ、それだけでシステムの利益は増えていたでしょう。 Maxim Dmitrievsky 2017.05.16 11:39 #3517 ユーリイ・アサウレンコ よかったです。ドローダウンをなくすことで、システムの安定性を高めているんですね。利益総額が下がってもいないのに、一定に保たれている。問題は、そのような落とし穴から抜け出せるような取引はどうなったのか、ということです。もし、削除していなければ、それだけでシステムの利益は増えていたでしょう。 もし、異なるタイムフレームでニューロンをトレーニングすれば、異なる結果が得られ、比較することはできません。 シグナルは異なり、モデルは異なってトレーニングされ、それに影響を与えることはできません。何も削除していない) Yuriy Asaulenko 2017.05.16 11:52 #3518 マキシム・ドミトリエフスキー もし、異なる時間間隔でニューロンをトレーニングすれば、異なる結果が得られ、比較するものは何もありません。何も削除していない)オプティマイザーが削除されるのは理解できる。しかし、結果の再現性はどんな実験にも必要な条件である。つまり、異なるセクションでトレーニングしたときに、テストで異なる結果が出たとしたら、それは考えるべき理由です。同じNSに同じToRで音声を認識するように教えたのに、訓練方法が違うので比較できないと判断されたとします。 Maxim Dmitrievsky 2017.05.16 11:58 #3519 ユーリイ・アサウレンコオプティマイザーが削除されるのは理解できる。しかし、結果の再現性はどんな実験にも必要な条件である。つまり、異なるセクションでトレーニングしたときに、テストで異なる結果が出たとしたら、それは考えるべき理由です。同じNSに同じToRで音声を認識するように教えたのに、訓練方法が違うので比較できないと判断されたとします。 しかし、現在のモデルでは、小さなデータセットと巨大なデータセットを同じように近似させることは不可能で、それほど複雑ではありません。 Yuriy Asaulenko 2017.05.16 12:52 #3520 マキシム・ドミトリエフスキー まあ、そんなところですが、現在のモデルでは不可能です。小さなデータセットと巨大なデータセットを同じように近似させるほど複雑なものではありません。一般的に分単位で言えば、市場は統計的に均質であり、つまり統計は週ごと、月ごとにほとんど変化しない(安定している)。質問内容を勉強していないのでわかりません。私の記憶では、1分間に取り組んでいますね。原理的には、単純なシステムの方が収束が早いはずです。つまり、1つの高い最大値を持っている。ちなみに、この高値は、私たち自身が「間違った」予測因子を使って生成したものです。 1...345346347348349350351352353354355356357358359...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
なんと間違って、分類モデルを作っているのですね。サンプルが大きいと汎化が強くなり、モデルは一般的にはロバストに、特定には精度が低くなり、それぞれ利益が小さくなる
効率に置き換えて考えてみましょう。複雑化した結果、システムの効率が下がれば、そのシステムは面白くない。利益+損失の減少は、効率の低下を意味します。
サステナビリティが高まれば、効率も上がるはずです。効率性は、利益/(利益+損失)比率と定義することができます。また、1トレードあたりの効率を取ることもできます。
効率に置き換えて考えてみましょう。複雑化した結果、システムの効率が下がれば、そのシステムは面白くない。利益+損失の減少は、効率の低下を意味します。
サステナビリティが高まれば、効率も上がるはずです。効率性は、利益/(利益+損失)比率と定義することができます。取引ごとのKPIも検討できる。
VSには適用できない)) 長期的な効率は上がり、短期的な効率は下がることが判明している)戦略と戦術がある...短期的な学習は戦術的にNSを助け、長期的な学習は-異なる要因が影響するかもしれない...。
効率に置き換えて考えてみましょう。複雑化した結果、システムの効率が下がれば、そのシステムは面白くない。利益+損失の減少は、効率の低下を意味します。
サステナビリティが高まれば、効率も上がるはずです。効率性は、利益/(利益+損失)比率と定義することができます。トレードごとのKPIを取ることも可能です。
KPIという名の自転車は避けよう。
計量経済学では情報量規準が使われる。
以下はその定義 です。
情報量規準とは、計量経済学(統計学)で用いられる、モデルのデータへの「適合度」を、使用する推定パラメータ数で補正(ペナルティー)した相対的な品質を考慮した指標 です。つまり、モデルの精度と複雑さのトレードオフに基づく基準である。
情報的基準は、モデル同士の比較にのみ使用され、その値に意味のある解釈を与えることはない。統計的仮説検定の意味でのモデルの検証はできない。一般的に、基準の値が低いほど、モデルの相対的な品質が 高いとされる。
モデル選択を前提としたパッケージをとれば、情報量基準のいずれかが使われることになる。
Faaは正しい指摘を書いているが、正しく述べていない。
系列と予測変数のセットがあります。シリーズを3つに分けて、トレーニングサンプルとフォワード(最も単純なケース)を作るのです。
例えば、20個のモデルを作るわけです。
ポイントは、リストからのモデルの選択は、トレーニングサンプルでのベストでもフォワードサンプルでのベストでもなく、実行されることです。そして、学習サンプルとフォワードサンプルでほぼ同じ品質スコアを与えるモデルを選択します。
お互い様だ。
より単純なものを選択するために情報的基準が用いられるが、情報的基準は決してフォワードテストを排除するものではない。
KPIという自転車を飛ばそう。
計量経済学では情報量規準が使われる。
一方は絶対に邪魔にならないし、他方に取って代わるものでもない。経済学では、KPIに絶対的に対応する意味での効率性の基準がある。何も発明する必要はないのです。
この場合、プロセスではなく、結果を評価しているのです。もはや、プロセス基準にはこだわらない。システムはブラックボックスです。そのため、箱の特性を比較しているのです。
また、投資額1ルーブルあたりの効果、取引の平均効率などの評価基準もある。そんな基準でビジネス全体が動いているのです。結局、私たちは何をしているのでしょうか?
よかったです。ドローダウンをなくすことで、システムの安定性を高めているんですね。利益総額が下がってもいないのに、一定に保たれている。問題は、そのような落とし穴から抜け出せるような取引はどうなったのか、ということです。もし、削除していなければ、それだけでシステムの利益は増えていたでしょう。
もし、異なるタイムフレームでニューロンをトレーニングすれば、異なる結果が得られ、比較することはできません。 シグナルは異なり、モデルは異なってトレーニングされ、それに影響を与えることはできません。何も削除していない)
もし、異なる時間間隔でニューロンをトレーニングすれば、異なる結果が得られ、比較するものは何もありません。何も削除していない)
オプティマイザーが削除されるのは理解できる。しかし、結果の再現性はどんな実験にも必要な条件である。つまり、異なるセクションでトレーニングしたときに、テストで異なる結果が出たとしたら、それは考えるべき理由です。
同じNSに同じToRで音声を認識するように教えたのに、訓練方法が違うので比較できないと判断されたとします。
オプティマイザーが削除されるのは理解できる。しかし、結果の再現性はどんな実験にも必要な条件である。つまり、異なるセクションでトレーニングしたときに、テストで異なる結果が出たとしたら、それは考えるべき理由です。
同じNSに同じToRで音声を認識するように教えたのに、訓練方法が違うので比較できないと判断されたとします。
しかし、現在のモデルでは、小さなデータセットと巨大なデータセットを同じように近似させることは不可能で、それほど複雑ではありません。
まあ、そんなところですが、現在のモデルでは不可能です。小さなデータセットと巨大なデータセットを同じように近似させるほど複雑なものではありません。
一般的に分単位で言えば、市場は統計的に均質であり、つまり統計は週ごと、月ごとにほとんど変化しない(安定している)。質問内容を勉強していないのでわかりません。私の記憶では、1分間に取り組んでいますね。
原理的には、単純なシステムの方が収束が早いはずです。つまり、1つの高い最大値を持っている。ちなみに、この高値は、私たち自身が「間違った」予測因子を使って生成したものです。