トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 815

 
マキシム・ドミトリエフスキー

次に、各予測機器の過去のバイセル/ホールド推定値を取り、確率推定値に変換します。

複数の予測変数を取り、それぞれについて同じことをする

しゅうりょうかそくをもとめる

そして、この例のようにNSやファジーセットに落とし込みます。

平均推定値は、各予測値について0.5前後で変動するが、ベイズアプローチの驚異により、合計値は許容範囲に収まるだろう。

は理論上です :)

私が知っているすべての分類モデルでは、結果をクラスとして並べることもできるし、クラスの確率として並べることもできる。通常、この確率は2つのクラスで半分ずつに分けられます。しかし、この確率を半分にするのではなく、ある配慮をしたプログラムがある。

 
ヴィザード_。

)))

Wizard_さん、あなたの書き込みをよく読みました。

写真の説明、どうしたんですか?

 
サンサニッチ・フォメンコ

私が知っているすべての分類モデルでは、結果をクラスとして並べることもできますし、クラスの確率として並べることもできます。通常、この確率は2つのクラスで半分ずつに分けられます。しかし、この確率を半分にするのではなく、ある配慮をしたプログラムがある。

そう、ロジスティック回帰ってやつです))

 
マキシム・ドミトリエフスキー

そう、ロジスティック回帰ってやつです))

いや、そうじゃなくて。

CORElearn::calibrate()

predict.CoreModelの呼び出しなどによって提供される確率スコアpredictedProbが与えられると、以下のようになります。

で与えられる手法のうちの1つを用いて,予測される確率を校正する関数 です.

というように、correctClassによって提供される2値クラス1の実際の確率と一致するようにする。

calibrate(correctClass, predictedProb, class1=1,
method = c("isoReg","binIsoReg","binning","mdlMerge"),
weight=NULL, noBins=10, assumeProbabilities=FALSE)


PS.

クラスを出力とする回帰式はたくさんあります。

最も有名で比較的簡単なものはglm()である。


SEE .

本当は、原典を参照しながら、より具体的に、より良い、具体的な機能についての書き込みがあることが強く望まれます。

 
ヴィザード_。

ファ、何年も前からヤッてんだろ。glm(.~...,family = "binomial")
ロジスティック))全部捨てろこのスレッドで適切なのはドクとトキシックだけです・・・。

トキシックが人生で一度だけ、急にまともになった言葉は何だったのか?

何も書かないんです。

ココナッツは全く不十分で迷走している、そしてあなたもそうだ。

 
ヴィザード_。

このスレッドで適切なのはドクとトキシックだけです・・・。

オンリー トキシック

 
まったく、何も知らない私を貶めないでください......。
 
Vizard_:

ファ、ずっとデタラメ言ってるんだろ。glm(.~...,family = "binomial") is
ロジスティック))全部捨てろこのスレッドで適切なのはドクとトキシックだけです・・・。

仮面の市民は、ベンチの下に入り、デタラメを書き込む前に

  • 私の投稿はキャリブレーションに関するもので、ロジスティック 回帰ではなく、私が言及したツールを持っていることをお読みください。
  • をやめて、添付ファイルを読んでください。たぶん、さまざまなロジスティック回帰の楽しさに、数年間は黙っていることでしょう。それを読んだ後、ここでロジスティック回帰を使ってクラスをキャリブレーションする方法について啓発してください。
このアイデアは、添付ファイルに詳しく書かれています。

ファイル:
 

このスレッドのメッセージは、みんな違うモデルを持っているので、意味がありません。唯一、参加者の心を一つにしたのは、MQL5と外部ツールの連携です。Spark Random ForestからAlglib(MQL5)形式へのコンバータを持っています。統合について投稿したい場合は、一般的なアイデアとしてこれを自由に使ってください。そうすれば、誰もが恩恵を受けることができます。

P.s. 私はGitが好きです

 
(とても理にかなっています。) ここには面白いものがあります。ただ、トピックを全部読むのはもはや現実的ではありません。