トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1305

 

0/1分類の「確率」閾値を0.45から0.65にシフトしたことによる性能の変化

本質的な精度

ヒストグラムを見ると、分類のための確率の閾値のシフトに伴って、分類精度の向上が極めてスムーズに起こっていることがわかるが、これは利益については言えないことである。

分類効率だけを考えるのではなく、ルール(葉)間で利益がどのように配分されているか、その感度の閾値はどれくらいかを推定する必要があることがわかりました。つまり、どう考えても、個別のルールを抜き出して見積もりを出すしかないのです。

 
エリブラリウス
鋸)
一般的に用語の混乱がありますね。

クロスバリデーションはどうでしょうか。すべてのサベツが関わってくるので、テストよりも検証の方がよいでしょう。

とにかく、そう、なんでもいいんです。私のテストはサブサンプルの第2部ですが、その時は検証ということにしておきます

 
アレクセイ・ヴャジミキン

0/1分類の「確率」閾値を0.45から0.65にシフトしたことによる性能の変化

本質的な精度

ヒストグラムを見ると、分類のための確率の閾値のシフトに伴って、分類精度の向上が極めてスムーズに起こっていることがわかるが、これは利益については言えないことである。

分類効率だけを考えるのではなく、ルール(葉)間で利益がどのように配分されているか、その感度の閾値はどれくらいかを推定する必要があることがわかりました。どう考えても、個別のルールを引っ張ってきて見積もるしかない。

0.65では取引回数が少ないため、利益は小さくなります。例えば、100の代わりに10トレードとなります。 ロットを増やすことができます。

 
アレクセイ・ヴャジミキン

0/1分類の「確率」閾値を0.45から0.65にシフトしたことによる性能の変化

本質的な精度

ヒストグラムを見ると、分類のための確率の閾値のシフトに伴って、分類精度の向上が極めてスムーズに起こっていることがわかるが、これは利益については言えないことである。

分類効率だけを考えるのではなく、ルール(葉)間で利益がどのように配分されているか、その感度の閾値はどれくらいかを推定する必要があることがわかりました。だから、どう転んでも、個別ルールを引き出して見積もりを出すしかないのです。

閾値を上げると、モデルが悪くなったとき、新しいデータではディールが少なくなり、確率がゼロに転がる、再トレーニングの良いタイミングになる。

閾値を上げるには、誤差を小さくしなければならず、そうでなければ、全く信号が出なくなる
 
エリブラリウス

0.65では取引回数が少ないので、利益も小さくなります。例えば、100の代わりに10回の取引を行うことができます。

トレード数、利益率の高いトレードが非常にスムーズに変化するだけ(MTのロジックでは1トレードが2トレード)

ただ、ストップロスが 固定ではないので、1トレードあたりの損失が安定しない。

 
エリブラリウス
鋸)
全体的に用語がわかりにくい

私の専門用語を提案します(とりあえず、この用語にこだわってみます)。

1.トレーニングサンプル - モデルの作成が行われるもの

2. テストサンプル - モデルトレーニングの品質を管理するために使用され、トレーニングの停止を含む

3.検査サンプル - モデル品質の推定に使用、トレーニングとは無関係

 
マキシム・ドミトリエフスキー

閾値を上げる、モデルが悪化すると新しいデータでの取引が少なくなり、確率がゼロの周りを回るようになる、これは再トレーニングの良いタイミングである。

スレッショルドを上げるには低いエラーが必要で、そうでなければ全く信号が出なくなる

ああ、それは理解できる。葉っぱの再生接続がないために信号が消えてしまうのです。特に、その大きな総活性化部分が0.5近くで動いていて、0.1+0.05+0.08+0.25+0.03みたいになっていると、和の一つが抜けてしまってそれっきり、活性化が起きないんです。

 
アレクセイ・ヴャジミキン

それは理解できる。ちょうど信号が葉の再生リンクの不足のために消え、特に彼らの大きな総活性化部分が0.5の周りに回転し、0.1 + 0.05 + 0.08 + 0.25 + 0.03 の合計のように見えた場合 - 合計とすべてのいずれかを落ちた、活性化が発生しません。

アルゴリズムが新しいデータに対して適切に汎化されていないことを意味し、さらにひねる必要があります。

 
マキシム・ドミトリエフスキー

10k例でテストとトレースごとに10%の誤差、増加すると滑らかに増加する

このエラーで、モデルは新しいデータで動作するようになりました。

を選択する必要があります。

もうアルゴリズムは明かさない、コミュニケーションするだけだ

О!これで決まり!?私のとほとんど同じだ!エールや魔法使いの話を聞く必要はないって言ったでしょ :)

 
マキシム・ドミトリエフスキー

新しいデータに対してアルゴリズムがうまく汎化できていないことを意味し、さらにひねる必要がある)おおよそ - 再教育する

だから、自分をごまかさないように、ひねくれているんです :)

これから新たに予想薬を追加して...。

理由: