カオスにはパターンがあるのか?それを探してみよう!特定のサンプルを例にした機械学習。 - ページ 22

 
Aleksey Vyazmikin #:

試験で最高のモデルが将来利益を生むことを期待する必要はない。平均か大多数が利益を生むはずだ。

テスターのオプティマイザーと同じで、最高のモデルは99%の確率でフォワードでプラマイゼロになる。

 
elibrarius #:

分割は量子までしか行われない。量子の内側はすべて同じ値とみなされ、それ以上分割されることはない。

重要なのは、分割されるたびに次の分割のためのサンプルが減り、そのサンプルは量子テーブルに従って生成されるが、メトリックは毎回変わるということだ。

モデルをトレーニングする際に、分割ごとに新しい量子表を作成するアルゴリズムがあります。

elibrarius#:

quantumの主な目的は、計算をスピードアップ することです(副次的な目的は、それ以上の分割がないようにモデルをロード/一般化することです。私は65000のパーツで定量化を行ったが、結果は定量化なしのモデルとまったく同じだった。

どうやら効率が良さそうだから使っているようだ。定量化のポイントは、データを一般化してカテゴリカルな特徴を作成することなので、サンプル全体の2%~5%が定量化されることが望ましいと思います。これはすべての予測因子について当てはまるわけではない可能性があります - 実験は完了していません。

elibrarius#:

データを2つのセクタに分割する1つのスプリットがあります - 一方はすべて0で、もう一方はすべて1です。私はクアンタと呼ばれるものを知りません。クアンタは量子化後に得られるセクタの数だと思います。おそらく、あなたの言うように分割の数なのでしょう。

そうですね、分割についてはその通りです。一般的に、CatBoostには量子テーブルという概念があり、そこではまさに分割が行われています。私自身はセグメント(2つの座標)を使っていますが、おそらくそれらはクアンタまたは量子セグメントと呼ぶことができるでしょう。実際の専門用語は知らないが、自分ではそう呼んでいる。

 
elibrarius #:

試験で最高のモデルが将来的に利益を上げることを望む必要はない。平均的なもの、あるいは最も多いものが利益を生むはずだ。

テスターのオプティマイザーと同じで、最高のモデルは99%の確率でフォワードでプラマイゼロになる。

今の目標は、私たちが目指すことができる可能性を理解することです。私はこれらのモデルでトレードするつもりはない。

そして、スプリット・セレクションのばらつきが少なくなったことで、選択されるモデルの数が増えることを期待している。

 
Aleksey Vyazmikin #:

そして、スプリットセレクションのばらつきが少なくなったことで、スクリーニングされたモデルの数が増えることを期待している。

モデル数はわずか79、試験での平均利益は-1379。

 
elibrarius #:

試験で最高のモデルが将来的に利益を上げることを望む必要はない。平均的なもの、あるいは最も多いものが利益を生むはずだ。

テスターのオプティマイザーと同じで、最高のモデルは99%の確率でフォワードでプラマイゼロになる。

ところで、トレーニングに参加していない別のモデルのサンプルも見てみることにした。

同じモデルをこのデータ(2014-2018)に当てはめるとこうなる。

バランス

悪くないと思う。少なくとも45度のプラマイゼロではない。つまり、良いモデルが良いまま続くと期待できるのだろうか?

 
Aleksey Vyazmikin #:

ところで、ここでトレーニングに参加していないもう一人、つまり先にカットされた選手のサンプルを見てみることにした。

そして、同じモデルはこのデータ(2014-2018)ではこのようになる。

少なくとも45度のプラマイゼロではない。つまり、良いモデルが良いまま続くことを期待してもいいのだろうか?

たぶん)

 
elibrarius #:

かもしれない)

残念なことに、全モデルをチェックしたところ、列車と試験サンプルで3000ドル以上稼いだモデルは39個あったが、新旧サンプルで利益が出たのは18個(46%)だけだった。これは確かに1/3よりは多いが、まだ十分ではない。

これは、正規の試験サンプルと廃棄されたサンプル(2014年~2018年)の間の選択されたモデルの残高の差である。

 
Aleksey Vyazmikin #:

残念なことに、全モデル(電車と試験サンプルで3000ドル以上稼いだもの)をチェックしたところ、39個だったが、新旧サンプルでは18個(46%)しか黒字の結果が出なかった。これは確かに1/3より多いが、まだ十分ではない。

年~2018年の年)。

総じて、まだ半々にもなっていない(利益面で)。If it is already difficult to come up with new features related to the target, maybe the target should be changed?
 
elibrarius #:
一般的に、50/50でもまだ(利益面で)うまくいっていない。ターゲットに関連する新しい特徴を思いつくのが難しいのであれば、ターゲットを変更すべきなのでは?

新しい予測因子を発明することはできるし、アイデアもまだあるが、欲の原則を考慮して、それを基にトレーニングが行われるかどうか......。おそらく、モデルトレーニングのアプローチを変え、既知のアルゴリズムを独自に変換する必要があるのだろう。

目標は変えることができますが、どのような目標にするのでしょうか?

 

ここで 説明した第6ステップのサンプルを使い、試験とテストを入れ替えた。

実際、トレーニングは同じルールに従って、同じ種で行われたが、別のサンプル(時系列的には後の方)が新しい木の作成を止める役割を担った。

その結果、試験(旧試験)サンプルの平均利益値は-730.5となった。時系列トレーニングの間、試験サンプルの平均値は982.5であり、試験(旧試験)サンプルの平均バランス値は922.49ポイントであった

図1 試験サンプルとして使用した場合のオリジナル試験サンプルのバランス分布のヒストグラム。

図2 試験用サンプルの残高分布のヒストグラム。

時系列に並べた場合、モデルの木の平均値は11.47であったが、2つのサンプルの順序を変えた場合、モデルの木の平均値は9.11であった。

同時に、実際にパターンをサンプリングすることによって停止をコントロールしたため、より質的なものとなり、上に示したように、平均してより収益性の高いものとなった。

一方では、この実験によって、サンプルには何年も続く類似のパターンが含まれていることが確認されたが、同時に、そのうちのいくつかは顕著でなくなったり、あるいは確率がイベント結果のマイナスゾーンにシフトすることさえある。予測変数そのものだけでなく、モデル内での使用もトレーニングの結果に影響を与えることが以前に明らかにされている。

その結果

1.代表的でないサンプル。

2.モデルを構築する際に安定したパターンを「覆い隠す」可能性のあるランダムなパターン、またはモデル構築の方法自体が十分に信頼できない。

3.モデル結果のサンプル領域への依存性(以前のサンプルトレインは試験の役割で良い結果を示した)。

理由: