トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2799

 
elibrarius #:

バスティングは、すべての列とすべての例から最良の分割を探索する。
Schuch.forestは、各ツリーに対して半分のチップと半分の例(シェアは設定可能)を取り、20~100のツリーから平均を求める。200個のチップのうち、情報量の多いチップが5個しかない場合、一部のツリーには情報量の少ないチップが含まれないことになる(ツリーあたり平均2.5個の情報量の多いチップ)。そして、情報量の多いツリーの一部をノイズツリーで平均することになる。
スポラディックフォレストは、(古典的な例やMO問題のように)情報量の多いチップがたくさんある場合にうまく機能する。

バスティングは、すべてのチップをチェックするので、最も情報量の多いチップを見つけて使う。つまり、boustingの論理に従えば、boustingは自ら最良のフィッシュを選択することになる。しかし、バスティングにも問題があります。

バスティングについては同意できない。

バスティングは強い相関関係(予測力)を持つ特徴を見つける。相関の大きさが一定であれば問題ありません。形質自体の推定をあきらめた場合、boustingでは関連性の大きさのばらつきを追跡することができず、私のデータによると、関連性推定のSDは10%から120まで変化することがあります(私の形質について)。boustingは何を与えてくれるのでしょうか?結局のところ、我々はより多くの変動性を持つ形質をサンプリングする必要があります。

 
СанСаныч Фоменко #:

評価自体は相対的なものだ。

写真を繰り返します。

ひどい、絶望的だ。


それよりも、何人かいれば、予測誤差が30%くらいになる。


そして、ゴミは取り除かなければならない。なぜなら、訓練セットでは、チップはゴミに有利に働く可能性があり、最適につながる値を見つけるのは簡単だからである。

クラス分割の相互情報が多ければ多いほど、分布の重なりは少なくなる。

それでも新しいデータでは分布は浮いてしまう。

このような操作はあまり当てにならない。
 
elibrarius #:

バスティングは、すべての列とすべての例から最良の分割を探索する。
Schuch.forestは、各ツリーに対して半分のチップと半分の例(シェアは設定可能)を取り、20~100のツリーから平均を求める。もし200個のチップのうち、有益なチップが5個しかないとすると、いくつかの木には有益なチップが含まれないことになる(1つの木につき、平均2.5個の有益なチップが含まれる)。そして、情報量の多い木の一部をノイズの多い木で平均することになる。
スポラディックフォレストは、(古典的な例やMO問題のように)情報量の多いチップがたくさんある場合にうまく機能する。

バスティングは、すべてのチップをチェックするので、最も情報量の多いチップを見つけて使う。つまり、boustingの論理に従えば、boustingは自ら最良のフィッシュを選択することになる。しかし、バスティングにも問題があります。

論理的には
 
Maxim Dmitrievsky #:
クラス分けの際に相互情報が多ければ多いほど、分布の重なりは少なくなる。これは論理的なことだ。

分布は新しいデータ上でも浮遊する。

このような操作に大きく依存することはないだろう。

あなたはsdのばらつきに気づいていない。

 
СанСаныч Фоменко #:

ブースティングについては同意できない。

ブスティングは強い相関関係(予測力)を持つ特徴を見つける。相関の大きさが一定であれば問題ありません。形質自体の推定をあきらめた場合、boustingでは関連性の大きさのばらつきを追跡することができず、私のデータによると、関連性の推定値のSDは10%から120まで(私の形質で)変化する可能性があります。boustingは何を与えてくれるのでしょうか?結局のところ、我々はより多くの変動性を持つ形質をサンプリングする必要があります。

すべてのMOモデルはパターンを探します。ブスティングは自動的に形質上の最良の形質を選択します。

もしばらつきがある場合(例えば市場データ)、何か特別なことをしなければならない。私はウォーキング・フォワードで実験したことがある。しかしそれは結果を表示するだけで、標識の選択には影響しない。また、パターンがなかったり、パターンが変わったりした場合、どの機能が将来的に機能するかを予測することはできない。唯一の可能性は、瞬時に変化せず、しばらくの間そのパターンが機能することだ。

 
Aleksey Vyazmikin #:

ブースティングは全能ではない。

ブースティングの問題ではなく、データのばらつきの問題だと思います。あなたのデータでトレーニングしてみます。
 
elibrarius #:
ブーストの問題ではなく、データのばらつきの問題だと思います。あなたのデータでトレーニングしてみます。

もちろん、アルゴリズムそのものではなく、データの問題だ。

試してみてください!

このサンプルは比較的ユニークなもので、トレーニング以外でうまくいくようにトレーニングするのは難しいのです。

私はまだ実験中です。

 
Aleksey Vyazmikin #:

このサンプルは比較的ユニークで、トレーニング以外で機能するようなトレーニングをするのは難しい。

どのようにユニークなのですか?市場データは通常、トレーニング以外では機能しません。そこでいくつか質問しました

 
elibrarius #:

それが独自性なのか?トレーニング以外では、市場データは通常機能しません。そこでいくつか質問しました

まあ、うまくはいかない。通常はうまくいくが、あまりうまくはいかない。

ここでの特殊性は、CatBoostモデルがすべての例を0.5未満の確率に割り当てることを好むということです - そのため、ターゲットを「1」に分類しません、そして0と0.5の間にあるものもあまりうまく分布しません - スレッドにモデルのスクリーンショットがあります。

 
Aleksey Vyazmikin #:

ここでの特殊性は、CatBoostモデルがすべての例を0.5未満の確率に割り当てることを好むということである。したがって、ターゲットを「1」に分類することはなく、0と0.5の間にあるものも非常に分布が悪い。

100の例に対して、あるクラスのラベルが5つ、別のクラスのラベルが95つある場合、どうしてモデルは最初のクラスに0.5以上の確率を与えることができるのでしょうか? これはモデルへの質問ではなく、データセットの作者への質問なのですが...?

理由: