トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2219

 
マキシム・ドミトリエフスキー

GMM以外のクラスタリングを試したことがありますか?

 
mytarmailS:

GMM以外のクラスタリングを試したことがありますか?

クラスタリングは必要ない、密度推定が必要だ。エンコーダーとGANがあれば大丈夫です。

MOでは尾を引いた分布を扱うための特別なテクニックがあるのですが、まだ使いこなせていません。

例えば、こんな仕掛けがあります。尾を引いた分布(増分はまさにそのような分布を形成する)の場合、新しいデータで何かを行うには、学習のためのサンプルサイズがほぼ無限でなければなりません。そして、これは証明されています。いかがでしょうか?

 
マキシム・ドミトリエフスキー

必要なのはクラスタリングではなく、密度推定なのです。エンコーダーとGANがあれば大丈夫です。

MOでは尾を引いた分布を扱うための特別なテクニックがあるのですが、まだ手をつけていないんです。これは文字通り、最新のものです。

どうしてもわからないんです。

2つのクラスタでモデルを学習させました。

> gm <- ClusterR::GMM(X,gaussian_comps = 2)
> gm
$centroids
            [,1]       [,2]       [,3]
[1,] -0.24224591 -0.5103346  0.7653689
[2,]  0.07675401  0.1668665 -0.2967750

$covariance_matrices
         [,1]      [,2]      [,3]
[1,] 1.169446 0.5971381 0.5771400
[2,] 1.006148 0.7724611 0.8297428

$weights
[1] 0.2505878 0.7494122

$Log_likelihood
            [,1]      [,2]
 [1,]  -4.060188 -3.111429
 [2,]  -6.105358 -3.516479
 [3,]  -4.301979 -4.310115
 [4,]  -3.752352 -3.583401
 [5,]  -3.172447 -3.302278
 [6,]  -7.849530 -5.254127
 [7,]  -3.055816 -3.157801
 [8,]  -5.307695 -2.795444
 [9,] -11.721658 -6.764240
[10,] -10.575876 -5.565554
[11,]  -6.760511 -5.193087
[12,]  -3.978182 -5.066543
[13,]  -2.577926 -4.418768
[14,]  -4.398716 -3.614050
[15,]  -4.082245 -5.268694
[16,]  -2.918141 -2.901401
[17,]  -9.153176 -4.797331
[18,]  -5.678321 -3.599856
[19,]  -4.500670 -2.622113
[20,]  -2.965878 -4.415078
[21,]  -4.453389 -4.152286
[22,]  -5.365306 -4.368355
[23,]  -8.533327 -3.813763
[24,]  -4.142515 -2.811048
[25,]  -7.174136 -5.631351
[26,]  -5.063518 -3.491408
[27,]  -4.935992 -8.336194
[28,]  -4.210241 -5.869093
[29,]  -3.605818 -2.577456
[30,]  -3.670845 -5.686447
[31,]  -2.733389 -5.010803
[32,]  -3.730563 -2.646749
[33,]  -3.201767 -3.689452
[34,]  -4.879268 -3.111545

という流通です。

$centroids

または

$covariance_matrices

と、それをシミュレートする方法(類似のものを繁殖させる)。

 
マキシム・ドミトリエフスキー

そして、それは証明されています。いかがでしょうか?

爆弾だ

どこで読んだのですか?

 
mytarmailS:

爆弾だ

どこで読んだのですか?

いくつかの記事を拝見しました。

をご覧ください。

https://venturebeat.com/2020/08/14/how-to-improve-ai-economics-by-taming-the-long-tail-of-data/

How to improve AI economics by taming the long tail of data
How to improve AI economics by taming the long tail of data
  • 2020.08.14
  • Matt Bornstein, Andreessen Horowitz
  • venturebeat.com
As the CTO of one late-stage data startup put it, AI development often feels “closer to molecule discovery in pharma” than software engineering. This is because AI development is a process of experimenting, much like chemistry or physics. The job of an AI developer is to fit a statistical model to a dataset, test how well the model performs on...
 
mytarmailS:

どうしてもわからないんです。

2つのクラスターでモデルを学習させました。

分布はどうなっていますか

または

と、それをシミュレートする方法(類似のものを繁殖させる)。

学習済みモデルからサンプリングできるパッケージを探す

 
マキシム・ドミトリエフスキー

学習済みモデルからサンプリングできるパッケージを探す

3つの分布(線)があります。

Normal Mixture' object   ``#9 Trimodal'' 
       mu sigma    w
[1,] -1.2  0.60 0.45
[2,]  1.2  0.60 0.45
[3,]  0.0  0.25 0.10

こんな感じでいいんでしょうか?

 
mytarmailS:

3つのディストリビューション(線)があります。

こんな感じでいいんでしょうか?

これらは、ガウスパラメータ

 
マキシム・ドミトリエフスキー

必要なのはクラスタリングではなく、密度推定なのです。エンコーダーとGANがあれば大丈夫です。

MOでは尾を引いた分布を扱うための特別なテクニックがあるのですが、まだ手をつけていないんです。

例えば、こんな仕掛けがあります。尾を引いた分布(増分はまさにそのような分布を形成する)の場合、新しいデータで何かを行うには、学習のためのサンプルサイズがほぼ無限でなければなりません。そして、これは証明されています。いかがでしょうか?

まあちょうどそこで、尾を引いた増分が価格系列とSBの類似性を証明したわけですが))))そして結論として、それが機能するためには、系列全体、つまり未来の系列も見なければならないし、系列が無限であることを認めれば、未来の系列も認識されることになるのです。まるで、無限のシリーズに無限のバリエーションがあり、その上で訓練して見るという結論のように。

練習には役に立たないが、理解する必要がある。

ZSと、密度の面では評価後にセクションに分けることができます。
 
Valeriy Yastremskiy:

まあ価格系列とSBの類似性を証明しただけなんですけどね()))テイルズインクリメントで。そして、結論として、うまくいくのは、全シリーズ、つまり未来のシリーズも見られること、あるいは、シリーズが無限であることを認めれば、未来のシリーズも認められることになるのでしょう。まるで、無限のシリーズに無限のバリエーションがあり、その上で訓練して見るという結論のように。

練習には役に立たないが、理解するためには必要なことである。

SZYと、評価後の密度という点では、セクションに分けることができます。

セクションに分け、最も頻度の高い例を選び、残りはノイズとして捨てる。

またはその逆で、稀な事象に境界線を引く。

記事からわかるように、これはFXだけでなく、現実世界の問題です。そして、MOはさまざまな分野で苦労しています

理由: