トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3359 1...335233533354335533563357335833593360336133623363336433653366...3399 新しいコメント Maxim Dmitrievsky 2023.12.25 18:53 #33581 СанСаныч Фоменко #:イングランドがどう関係あるんだ?あなたは資格のある人のようだが、いつもゴミ箱に引きずり込まれている。本質的な反論はほとんどしない... 彼のウェビナーで知ったんだ。それ以外に何がある?ググればわかる。彼はお気に入りの2つについて語ってくれた。彼は多くのコースをこなし、アルバイトでイギリスにも行った。グーグルかメスか、覚えていない。僕にとってのゴミは、地元の対談相手です :)私自身はIT業界からは程遠いのですが、IT業界で良いポジションにいる友人がいます。そのうちの一人は、銀行のインフラ全体を管理している。時折、彼らは私にくだらないことを聞いてくるが、私の知識に驚くこともある。だからMoDに興味があるんだ。だから、すべてきれいに片付いている。どちらかといえば、私はこの分野とは何の関係もない。ただのお遊びだ。数学の素養はゼロで、純粋に勘でやっている。つまり、ある種の高校数学のプログラムに合格することさえできない。プログラミングのパターンもない。筋金入りのMOSHnikをここに連れてきたら、彼は君たちを吹き飛ばすだろう。だから、もし君が僕のことを理解できないなら、彼は君にとって神になるだろう。でも、彼は絶対にこの動物園には来ない。そして、彼が最初に言い始めることは、このFXの上に座っている君たちは、ここにいる全員廃人だということだ :) Maxim Dmitrievsky 2023.12.26 08:21 #33582 サポートベクトル 法や決定木のような分類器は 、その内部特徴に基づいてクラス確率の推定値を提供できるため、predict_proba関数を持って います。しかし、これらの確率推定値は完全には正確でなかったり、分類器の本当の信頼度を反映していなかったりします。 例えば,サポート・ベクトル 法では,predict_proba関数は 分離超平面までの距離に基づいて確率推定値を返すかもしれないが,これらの値は,その手法自体の特徴によって歪んでいるかもしれない. 決定木の場合 ,predict_proba 関数は, リーフノード内の各クラスのオブジェクトの数に基づいてクラス確率を計算できるが,木の構造により,これらの確率は完全には正確ではないかもしれない. したがって,これらの分類器は predict_proba 関数を持つが ,それらが提供する確率は,ナイーブ・ベイズ分類器やロジスティック回帰のような確率モデルに基づく手法に比べて信頼性が低いかもしれない. Maxim Dmitrievsky 2023.12.26 17:00 #33583 モデレーターにより削除されました>の ための小さな実験を紹介します。 あるモデルを学習させたが、どのモデルでも構わない。閾値を上げても、キャリブレーションなしではその特性は改善されない。取引は少なくなり、利益は伸びない。 利用可能な方法でキャリブレーションし、異なるしきい値で実行した。キャリブレーションは2015年以降で、それ以前はすべてOOSです。 この方法はカスタムで、私自身が考え出した。MT5へのエクスポートにちょっとした不都合があるので、有名なものと比較してから決めようと思う。 閾値0.5 0.6 0.7 単純な例だが、最初は弱いモデルでも、キャリブレーションを行うことで、ある程度の結果が得られる。 CHTD Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Хорошие свойства у имеющегося классификатора должны соответствовать изучаемым данным. 2023.12.25www.mql5.com это просто способ привести аутпуты в вероятностый вид. потому что использование сырых вероятностей модели вообще бесполезно. переход к чисто вероятностной постановке задач в трейдинге давно созрел и даже слегка перезрел Maxim Dmitrievsky 2023.12.26 17:16 #33584 また、他のデータで学習したモデルをそのラベルにキャリブレーションするトリックもある。ここでは説明しないが、いくつかの微妙な状況において、これは良い効果をもたらす。 СанСаныч Фоменко 2023.12.26 17:19 #33585 mytarmailS #:キャリブレーションとは ーhttps://stats.stackexchange.com/questions/552146/probability-calibration-of-statistical-models 生年月日 ーhttps://www.tidymodels.org/learn/models/calibration/ ーhttps://mlr.mlr-org.com/articles/tutorial/classifier_calibration.html 記事を読む、リンク先の記事を読む。 ー奇妙なー印象。 記事によれば、キャリブレーションのポイントは何らかの方法で平滑化することであり、平滑化された確率と平滑化されていない確率にしきい値を設定することよりも優れていることは何だろうか?推定はないが、私には推定があるのは分類誤差である。 Aleksey Nikolayev 2023.12.26 18:26 #33586 確率」を出す回帰だけでなく、どんな回帰でも校正が可能であることがわかったようだ。これは意味があるのだろうか。 mytarmailS 2023.12.26 19:01 #33587 Aleksey Nikolayev #: 意味があるのかどうか。 それが最も重要な質問だ Aleksey Vyazmikin 2023.12.26 19:35 #33588 新規事業 - プレディクターの販売 Aleksey Vyazmikin 2023.12.26 20:19 #33589 Maxim Dmitrievsky #:単純な例として、最初は弱いモデルであっても、キャリブレーションを行うことである程度の結果が得られる。 キャリブレーションとは、モデルの性能を解釈するためのメカニズムであり、特定のデータに対して調整されたものである。 それ自体はモデルの出力値を変えるものではありません。定量化の後、クラスの割合が急上昇して範囲が並べ替えられるという変形は、私はモデルで見たことがありません。100分割すれば、このようなことが起こるのかもしれませんが......。 シミュレーションによると、一般的にキャリブレーションは0.5点のシフトにつながります。つまり、較正をしなくても、そのようなポイントを見つけることができます。特に、すべてのポジションでテイクプロフィットとストップロスを同じにしている場合は、なぜ失敗したのかがはっきりしません。もしそれらが同じでないなら、全く異なるアプローチが必要です。) Maxim Dmitrievsky 2023.12.26 21:17 #33590 Aleksey Vyazmikin #:生データに生データに生データの生データ。それ自体はモデルの出力値を変えることはない。度量衡化した後、度量衡の度量衡化した後、度量衡化した後、度量衡化した後、度量衡化した後、度量衡化した後、度量衡化した後度量衡化した後度量衡化した後度量衡化した後度量衡化した後度数。100分割すれば、このようなことが起こるのかもしれないが......。度々、度重なることがある。ですから、キャリブレーションをしなくても、そのようなポイントを見つけることができます。特に、すべてのポジションでテイクプロフィットとストップロスを同じにしている場合は、なぜそれをしなかったのかがよくわかりません。もしそれらが同じでないなら、全く異なるアプローチが必要です。)私は誰かを煽っているわけではありません。質問したのは、手口の知識についてです。 動くものすべてを最適化することだ。 1...335233533354335533563357335833593360336133623363336433653366...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
イングランドがどう関係あるんだ?
あなたは資格のある人のようだが、いつもゴミ箱に引きずり込まれている。
本質的な反論はほとんどしない...
サポートベクトル 法や決定木のような分類器は 、その内部特徴に基づいてクラス確率の推定値を提供できるため、predict_proba関数を持って います。しかし、これらの確率推定値は完全には正確でなかったり、分類器の本当の信頼度を反映していなかったりします。
例えば,サポート・ベクトル 法では,predict_proba関数は 分離超平面までの距離に基づいて確率推定値を返すかもしれないが,これらの値は,その手法自体の特徴によって歪んでいるかもしれない.
決定木の場合 ,predict_proba 関数は, リーフノード内の各クラスのオブジェクトの数に基づいてクラス確率を計算できるが,木の構造により,これらの確率は完全には正確ではないかもしれない.
したがって,これらの分類器は predict_proba 関数を持つが ,それらが提供する確率は,ナイーブ・ベイズ分類器やロジスティック回帰のような確率モデルに基づく手法に比べて信頼性が低いかもしれない.
モデレーターにより削除されました>の ための小さな実験を紹介します。
あるモデルを学習させたが、どのモデルでも構わない。閾値を上げても、キャリブレーションなしではその特性は改善されない。取引は少なくなり、利益は伸びない。
利用可能な方法でキャリブレーションし、異なるしきい値で実行した。キャリブレーションは2015年以降で、それ以前はすべてOOSです。
この方法はカスタムで、私自身が考え出した。MT5へのエクスポートにちょっとした不都合があるので、有名なものと比較してから決めようと思う。
閾値0.5
0.6
0.7
単純な例だが、最初は弱いモデルでも、キャリブレーションを行うことで、ある程度の結果が得られる。
CHTD
記事を読む、リンク先の記事を読む。
ー奇妙なー印象。
記事によれば、キャリブレーションのポイントは何らかの方法で平滑化することであり、平滑化された確率と平滑化されていない確率にしきい値を設定することよりも優れていることは何だろうか?推定はないが、私には推定があるのは分類誤差である。
意味があるのかどうか。
新規事業 - プレディクターの販売
単純な例として、最初は弱いモデルであっても、キャリブレーションを行うことである程度の結果が得られる。
キャリブレーションとは、モデルの性能を解釈するためのメカニズムであり、特定のデータに対して調整されたものである。
それ自体はモデルの出力値を変えるものではありません。定量化の後、クラスの割合が急上昇して範囲が並べ替えられるという変形は、私はモデルで見たことがありません。100分割すれば、このようなことが起こるのかもしれませんが......。
シミュレーションによると、一般的にキャリブレーションは0.5点のシフトにつながります。つまり、較正をしなくても、そのようなポイントを見つけることができます。特に、すべてのポジションでテイクプロフィットとストップロスを同じにしている場合は、なぜ失敗したのかがはっきりしません。もしそれらが同じでないなら、全く異なるアプローチが必要です。)
生データに生データに生データの生データ。
それ自体はモデルの出力値を変えることはない。度量衡化した後、度量衡の度量衡化した後、度量衡化した後、度量衡化した後、度量衡化した後、度量衡化した後、度量衡化した後度量衡化した後度量衡化した後度量衡化した後度量衡化した後度数。100分割すれば、このようなことが起こるのかもしれないが......。
度々、度重なることがある。ですから、キャリブレーションをしなくても、そのようなポイントを見つけることができます。特に、すべてのポジションでテイクプロフィットとストップロスを同じにしている場合は、なぜそれをしなかったのかがよくわかりません。もしそれらが同じでないなら、全く異なるアプローチが必要です。)
私は誰かを煽っているわけではありません。質問したのは、手口の知識についてです。
動くものすべてを最適化することだ。