トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2559

 
mytarmailS#:

精神病院への道を探しているのか?:)

問題は、このような定義を考えるのは私ではないので、より正確な情報はGoogleに送るしかないことです。その記事へのリンクは後で探します。しかし、それは、定常的なシリーズとそうでないシリーズのエントロピー分析についてである
 
Maxim Dmitrievsky#:
問題は、このような定義をすべて思いつくわけではないので、より正確な情報を得るためにはググるしかないことです。その記事へのリンクは後で探します。

まあ、それが面白いんですけどね...。

規則性」とおっしゃいましたね。それが何なのか分からないので、あなたに聞かずにググってみたら、そういう意味ではないことが判明しました。それがわからなかったら、今は同じ概念(規則性)を違う意味で使っているから、いつまでたっても真相がわからない......。

そして全ては一人の疑似科学的な馬鹿のせいである...

 
mytarmailS#:

SMMを学習させたいのですが、一風変わった方法で、フィットネス関数や遺伝的なものなどを使って...

状態遷移行列を自分で作りたいのですが、パッケージがあって、こういう行列があるのですが、どこをどう変えればいいのかよくわかりません、教えてください。

HMMにおける適合度関数は尤度の対数である。カスタムのFを思いついたら、それはもう他の方法です。

 
Aleksey Nikolayev#:

HMMでは、フィットネス関数は尤度の対数である。カスタムF.F.を思いついたら、それはもう他の方法です。

では、何を最適化する必要があるのでしょうか?

fit <- HMMFit(x , nStates = 3)
> fit

Call:
----
HMMFit(obs = x, nStates = 3)

Model:
------
3 states HMM with 5-d gaussian distribution

Baum-Welch algorithm status:
----------------------------
Number of iterations : 60
Last relative variation of LLH function: 0.000001

Estimation:
-----------

Initial probabilities:
           Pi 1         Pi 2 Pi 3
  2.636352 e-255 2.770966 e-50    1

Transition matrix:
          State 1    State 2    State 3
State 1 0.1864987 0.76046799 0.05303333
State 2 0.2539474 0.60377350 0.14227910
State 3 0.6191488 0.07157308 0.30927815

Conditionnal distribution parameters:

Distribution parameters:
  State 1
           mean  cov matrix                                               
      0.4752939  0.97587370  0.02993559 -0.21805741  0.25639651  0.1567241
     -0.5686039  0.02993559  0.85342747  0.43374921  0.18220534 -0.2149688
      0.3739333 -0.21805741  0.43374921  0.58127533 -0.01600787 -0.2097350
     -0.3833589  0.25639651  0.18220534 -0.01600787  1.13979299 -0.3723484
     -0.5871168  0.15672407 -0.21496881 -0.20973503 -0.37234835  1.0462750

  State 2
            mean  cov matrix                                               
      0.07949112  1.14644170  0.21413163 -0.05544488 -0.02902406 0.04179052
      0.15306029  0.21413163  0.84865045 -0.19661403 -0.12397740 0.01617397
     -0.03560680 -0.05544488 -0.19661403  1.25872915  0.15638695 0.03917204
      0.07304988 -0.02902406 -0.12397740  0.15638695  0.70073838 0.02934227
      0.35500064  0.04179052  0.01617397  0.03917204  0.02934227 0.65031019

  State 3
           mean  cov matrix                                              
     -0.5093426  0.60603137 -0.21462708  0.06322606  0.27231407 0.1076386
      0.1526545 -0.21462708  0.56847783 -0.06347737 -0.15941211 0.2161427
     -1.0672876  0.06322606 -0.06347737  0.17662599  0.08658292 0.1981628
      0.7778853  0.27231407 -0.15941211  0.08658292  1.17497274 0.4802186
     -0.2541008  0.10763858  0.21614270  0.19816276  0.48021858 0.7488420


Log-likelihood: -1379.07
BIC criterium: 3118.43
AIC criterium: 2894.14

以下は、3つの州のモデルです。

 
mytarmailS#:

まあ、それが面白いんですけどね...。

規則性」とおっしゃいましたね。それが何か分からないから、あなたに聞かずにググってみたら、そういう意味じゃないことが分かった。それがわからなかったら、今は同じ概念(規則性)を違う意味で使っているから、いつまでたっても真相がわからない......。

そして、すべては一人の似非科学的な馬鹿のせいである......。

この疑似科学の教訓は、定常性は予測可能性を意味せず、その逆もまた然りということです :D 市場は非定常であるため予測不可能です。そして、予測不可能だから不安定なのではありません。以上、お疲れ様でした。
 
Maxim Dmitrievsky#:
みなさん、疲れました。

私もです)

 
mytarmailS#:

では、何を最適化する必要があるのでしょうか?

ここでは、3州モデルを紹介します。

つまり、バウム・ウェルチ・アルゴリズムによって、すべてがすでに最適化されているのです。尤度の対数の最適値を以下に書き出す。パラメータ(遷移行列など)を算出します。

 
ちなみに、正則化という言葉は、combやlasso回帰を説明するときにも使われます)そこでは、モデルの分散を減らすために、係数をゼロに圧縮することを意味します。
 
Aleksey Nikolayev#:

つまり、バウム・ウェルチ・アルゴリズムによって、すでにすべてが最適化されているのです。尤度対数の最適値を以下に書き出す。パラメータ(遷移行列など)を算出します。

これは3つの状態に学習さ せただけの モデルで、 私の適性関数を満足するように学習 させるモデルが欲しいのです。

ニューロニクスを訓練し、遺伝によって重さを変え、そのフィットネスを見ることを想像してください。

SMMでも同じことをしたいのですが、その場合は遷移行列を変えます。


でも、ニューロンの重みを変えればいいことは明らかで、これはそうでもない。

 
mytarmailS#:

これは3つの状態で学習させたモデルで、私の適性関数を満足するように学習させるモデルが欲しいのです。

あるニューロンを訓練し、遺伝子を用いてその重みを変え、そのフィットネスを見ることを想像してください。

SMMでも同じことをしたいのですが、その場合は遷移行列を変えます。


しかし、ニューロンの重みの場合、何を変えればいいのかが明確で、ここではそうでもない。

必要なものは理解した、カスタムFFを設定できるようにしたい。しかし、この関数HMMFit()は、LLHを硬く縫い付けたBaum-Welchを実装しているので、この可能性をサポートしない。一部のバウムウェルチパラメーターのみ設定可能です

カスタムフレーズを指定できる別のパッケージが必要です。

理由: