トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3357 1...335033513352335333543355335633573358335933603361336233633364...3399 新しいコメント Maxim Dmitrievsky 2023.12.25 07:41 #33561 この図を簡単に説明すると、分類器にとっては、クラス・ラベルが使用されるため、ヒストグラム上の最初のケースと2番目のケースは同一である。そこにもそこにも、最も確率の高いクラスの単位があります。学習後、それはクラス確率ではなく、シグモイドまたはソフトマックスを通過した予測誤差を差し引いたものを与えます。これは、予測しきい値を設定するときに期待されることと完全に矛盾している。 Aleksey Nikolayev 2023.12.25 08:07 #33562 確率論的アプローチは良いし、正しい。常に強いノイズがあり、ポイントはSBの下での結果との違いを探すことだ。そのためにはノイズの分散だけでは不十分です。 IMHOは、分類タスクは情報を大幅に捨ててしまうため、あまり適していないと考えている。希望する方向への値動きの値の分布を見て、この分布が符号にどのように依存するかをモデル化し、この分布のタイプ(SBでの値動きとの違いがある場合)に従ってTSを構築するようなものが必要です。 СанСаныч Фоменко 2023.12.25 08:11 #33563 Maxim Dmitrievsky #: 。 最後にもう一度:分類器は 誤った確率を出力 するので、校正される。元の形では無意味です。それを乗り越えてください。 我慢できなかった。 抽象的な、参考文献を読むような、完全な、ランダムな過程に縛られない確率などというものは存在しない。 そんなものはない。 コインを投げる確率など。 したがって、どの分類器も、その特定の分類器を特徴づける確率を与え、それが私たちが必要とする特徴、すなわち予測誤差を与える。別の分類器は、対応するクラスの予測誤差を持つ他の確率を与えます。 クラス・バランシングと同様に、予測変数とそれらに関連するラベルによって、確率をクラスに分割するための閾値を設定する問題が生じます。この操作のためのツールは,"キャリブレーション "と呼ばれ,上で与えられている.コルホーズの方法でも可能である。 いずれにせよ、特定の分類器で作業するとき、自然界には 他の確率が存在しないので、特定の分類器が与える確率の予測誤差を大幅に減らすことができます。もし確率が気に入らなければ、分類器を使うか、キャリブレーションを行えばよいのです。この特殊なプロセスには、理論的に存在しない「完璧な」確率が入り込む余地はない。 ひとつはっきりしていることは、0.5のしきい値でクラス分けをすることは非常に疑問であり、めったにうまくいかないということです。 Maxim Dmitrievsky 2023.12.25 08:35 #33564 СанСаныч Фоменко #:私は受け取れなかった。 分類器が示す確率には意味がない。確率ではない。もし必要なら、使うことはできない。機関車より先に走って、この事実を新しい意味で埋めないでください。少なくともそれに対処すること。 Aleksey Nikolayev 2023.12.25 08:38 #33565 СанСаныч Фоменко #:耐えられなかった。ランダムなプロセスと結びついていない抽象的な、参考文献を読んだり、理想的な、確率などというものは存在しない。そんなものはない。 コインを投げる確率など。つまり、どの分類器も、その特定の分類器を特徴づける確率を与え、それが私たちが必要とする特徴、すなわち予測誤差を与えるのです。別の分類器は、対応するクラスの予測誤差を持つ別の確率を与えるでしょう。クラス・バランシングと同様に、予測変数とそれらに関連するラベルによって、確率をクラスに分割するための閾値を設定する問題が生じます。この操作のためのツールは,"キャリブレーション "と呼ばれ,上で与えられている.これはコルホーズの方法でも行うことができる。 いずれにせよ、特定の分類器で作業するとき、自然界には 他の確率は存在しないので、特定の分類器によって与えられた確率の予測誤差を大幅に減らすことができます。確率が気に入らなければ、分類器を使うか、キャリブレーションを行えばよいのです。この特殊なプロセスには、理論的に存在しない「完全な」確率の居場所はない。ひとつはっきりしていることは、0.5のしきい値でクラス分けをすることは非常に疑問であり、めったにうまくいかないということです。 そこで、間違った確率モデルを使用した場合の一般的なMatstatのエラーについて話す。たとえば、回帰のノイズが実際にはラプラス分布していて、ガウス分布として計算すると、明らかに誤差が生じます。 追記ところで、MOは(少なくともソ連では)統計的学習と呼ばれていました)。 Maxim Dmitrievsky 2023.12.25 09:20 #33566 上記ですでに例を説明した。OOSをパスする分類器があるが、リターンは60/40に分布している。あなたはそれが気に入らず、判定しきい値を上げますが、状況は変わらず、時にはさらに悪化します。なぜそうなるのかと頭を悩ませる。 実際の確率推定の場合、状況は変化するはずだからである。 解決策が示される。 Andrey Dik 2023.12.25 10:10 #33567 Maxim Dmitrievsky #:上記ですでに例を説明した。OOSをパスする分類器があるが、リターンは60/40に分布している。あなたはそれが気に入らず、判定しきい値を上げますが、状況は変わらず、時にはさらに悪化します。なぜそうなるのか、あなたは頭を悩ませます。本当の確率推定の場合、状況は変わるはずだからだ。あなたには解決策が与えられる。こんなことはとっくの昔にわかりきっていたことではありませんか? Andrey Dik 2023.12.25 10:11 #33568 ポスト最適化......これも誰も言えないが、コリレーションと言われている!そうそう。 Aleksey Nikolayev 2023.12.25 10:18 #33569 Maxim Dmitrievsky #:上記ですでに例を説明した。OOSをパスする分類器があるが、リターンは60/40に分布している。あなたはそれが気に入らず、判定しきい値を上げますが、状況は変わらず、時にはさらに悪化します。なぜそうなるのか、あなたは頭を悩ませます。本当の確率推定の場合、状況は変わるはずだからだ。解決策がある。 しかし、キャリブレーションは万能ではないし、無料でもないことを指摘したいと思います。説明を避けるために、SHADに関する2番目の文献から引用します。"一般的に、各真のクラスについて、予測された確率が等しい分散で正規分布して いる場合、この方法はうまく機能することが示されます。"これはPlatt較正についてですが、他の較正についてもいくつかの条件が満たされなければなりません。 実際には、すべてがmatstatのようなもので、使用されるモデルの確率的特性は、研究対象のデータに対応していなければならない。 Maxim Dmitrievsky 2023.12.25 10:22 #33570 Aleksey Nikolayev #:しかし、キャリブレーションは万能ではないし、無料でもありません。説明を避けるために、SHADに関する2番目の文献から引用します。"一般的に、各真のクラスについて、予測された確率が等しい分散で正規分布して いる場合、この方法はうまく機能することが示されます。"これはPlatt較正についてですが、他の較正についてもいくつかの条件が満たされなければなりません。実際には、すべてがmatstatのようなもので、使用されるモデルの確率的特性は、調査されたデータに対応していなければなりません。 もちろん、これは出力を確率的にするための方法であり、生のモデル確率を使っても意味がないからです。 1...335033513352335333543355335633573358335933603361336233633364...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
確率論的アプローチは良いし、正しい。常に強いノイズがあり、ポイントはSBの下での結果との違いを探すことだ。そのためにはノイズの分散だけでは不十分です。
IMHOは、分類タスクは情報を大幅に捨ててしまうため、あまり適していないと考えている。希望する方向への値動きの値の分布を見て、この分布が符号にどのように依存するかをモデル化し、この分布のタイプ(SBでの値動きとの違いがある場合)に従ってTSを構築するようなものが必要です。
。
我慢できなかった。
抽象的な、参考文献を読むような、完全な、ランダムな過程に縛られない確率などというものは存在しない。
そんなものはない。
コインを投げる確率など。
したがって、どの分類器も、その特定の分類器を特徴づける確率を与え、それが私たちが必要とする特徴、すなわち予測誤差を与える。別の分類器は、対応するクラスの予測誤差を持つ他の確率を与えます。
クラス・バランシングと同様に、予測変数とそれらに関連するラベルによって、確率をクラスに分割するための閾値を設定する問題が生じます。この操作のためのツールは,"キャリブレーション "と呼ばれ,上で与えられている.コルホーズの方法でも可能である。
いずれにせよ、特定の分類器で作業するとき、自然界には 他の確率が存在しないので、特定の分類器が与える確率の予測誤差を大幅に減らすことができます。もし確率が気に入らなければ、分類器を使うか、キャリブレーションを行えばよいのです。この特殊なプロセスには、理論的に存在しない「完璧な」確率が入り込む余地はない。
ひとつはっきりしていることは、0.5のしきい値でクラス分けをすることは非常に疑問であり、めったにうまくいかないということです。
私は受け取れなかった。
耐えられなかった。
ランダムなプロセスと結びついていない抽象的な、参考文献を読んだり、理想的な、確率などというものは存在しない。
そんなものはない。
コインを投げる確率など。
つまり、どの分類器も、その特定の分類器を特徴づける確率を与え、それが私たちが必要とする特徴、すなわち予測誤差を与えるのです。別の分類器は、対応するクラスの予測誤差を持つ別の確率を与えるでしょう。
クラス・バランシングと同様に、予測変数とそれらに関連するラベルによって、確率をクラスに分割するための閾値を設定する問題が生じます。この操作のためのツールは,"キャリブレーション "と呼ばれ,上で与えられている.これはコルホーズの方法でも行うことができる。
いずれにせよ、特定の分類器で作業するとき、自然界には 他の確率は存在しないので、特定の分類器によって与えられた確率の予測誤差を大幅に減らすことができます。確率が気に入らなければ、分類器を使うか、キャリブレーションを行えばよいのです。この特殊なプロセスには、理論的に存在しない「完全な」確率の居場所はない。
ひとつはっきりしていることは、0.5のしきい値でクラス分けをすることは非常に疑問であり、めったにうまくいかないということです。
そこで、間違った確率モデルを使用した場合の一般的なMatstatのエラーについて話す。たとえば、回帰のノイズが実際にはラプラス分布していて、ガウス分布として計算すると、明らかに誤差が生じます。
追記ところで、MOは(少なくともソ連では)統計的学習と呼ばれていました)。
上記ですでに例を説明した。OOSをパスする分類器があるが、リターンは60/40に分布している。あなたはそれが気に入らず、判定しきい値を上げますが、状況は変わらず、時にはさらに悪化します。なぜそうなるのかと頭を悩ませる。
実際の確率推定の場合、状況は変化するはずだからである。
解決策が示される。
上記ですでに例を説明した。OOSをパスする分類器があるが、リターンは60/40に分布している。あなたはそれが気に入らず、判定しきい値を上げますが、状況は変わらず、時にはさらに悪化します。なぜそうなるのか、あなたは頭を悩ませます。
本当の確率推定の場合、状況は変わるはずだからだ。
あなたには解決策が与えられる。
上記ですでに例を説明した。OOSをパスする分類器があるが、リターンは60/40に分布している。あなたはそれが気に入らず、判定しきい値を上げますが、状況は変わらず、時にはさらに悪化します。なぜそうなるのか、あなたは頭を悩ませます。
本当の確率推定の場合、状況は変わるはずだからだ。
解決策がある。
しかし、キャリブレーションは万能ではないし、無料でもないことを指摘したいと思います。説明を避けるために、SHADに関する2番目の文献から引用します。"一般的に、各真のクラスについて、予測された確率が等しい分散で正規分布して いる場合、この方法はうまく機能することが示されます。"これはPlatt較正についてですが、他の較正についてもいくつかの条件が満たされなければなりません。
実際には、すべてがmatstatのようなもので、使用されるモデルの確率的特性は、研究対象のデータに対応していなければならない。
しかし、キャリブレーションは万能ではないし、無料でもありません。説明を避けるために、SHADに関する2番目の文献から引用します。"一般的に、各真のクラスについて、予測された確率が等しい分散で正規分布して いる場合、この方法はうまく機能することが示されます。"これはPlatt較正についてですが、他の較正についてもいくつかの条件が満たされなければなりません。
実際には、すべてがmatstatのようなもので、使用されるモデルの確率的特性は、調査されたデータに対応していなければなりません。
もちろん、これは出力を確率的にするための方法であり、生のモデル確率を使っても意味がないからです。