交易中的机器学习:理论、模型、实践和算法交易 - 页 2559

 
mytarmailS#:

寻找通往疯人院的道路?:)

问题是,我不是提出所有这些定义的人,所以我只能寄给谷歌,以获得更准确的信息。我稍后可以找到那篇文章的链接。但这是关于系列的熵分析,静止的和不那么静止的
 
Maxim Dmitrievsky#:
问题是,我没有想出所有这些定义,所以我只能通过谷歌来寻找更精确的信息。我稍后可以找到那篇文章的链接。

嗯,这就是有趣的事情...

你说 "规律性"。我不知道那是什么,所以我没有问你,我去搜了一下,结果发现你不是这个意思。如果我没有理解这一点,我们现在就会用同一个概念(规律性)来暗示不同的事情,所以我们永远也不会弄清楚......

而这一切都是因为一个伪科学的白痴......。

 
mytarmailS#:

我想训练SMM,但以一种不寻常的方式,通过一个健身函数、遗传或其他...

我想自己制作状态转换矩阵......有一个包,有这些矩阵,但要改什么,改在哪里,我不太明白,你能帮忙吗?

HMM中的健身函数是似然性的对数。如果你想出一个自定义的F.F.,它已经是其他的一些方法了。

 
Aleksey Nikolayev#:

在HMM中,健身函数是似然性的对数。如果你想出了一个自定义的F.F.,它已经是其他的方法了。

那么,什么是需要优化的?

fit <- HMMFit(x , nStates = 3)
> fit

Call:
----
HMMFit(obs = x, nStates = 3)

Model:
------
3 states HMM with 5-d gaussian distribution

Baum-Welch algorithm status:
----------------------------
Number of iterations : 60
Last relative variation of LLH function: 0.000001

Estimation:
-----------

Initial probabilities:
           Pi 1         Pi 2 Pi 3
  2.636352 e-255 2.770966 e-50    1

Transition matrix:
          State 1    State 2    State 3
State 1 0.1864987 0.76046799 0.05303333
State 2 0.2539474 0.60377350 0.14227910
State 3 0.6191488 0.07157308 0.30927815

Conditionnal distribution parameters:

Distribution parameters:
  State 1
           mean  cov matrix                                               
      0.4752939  0.97587370  0.02993559 -0.21805741  0.25639651  0.1567241
     -0.5686039  0.02993559  0.85342747  0.43374921  0.18220534 -0.2149688
      0.3739333 -0.21805741  0.43374921  0.58127533 -0.01600787 -0.2097350
     -0.3833589  0.25639651  0.18220534 -0.01600787  1.13979299 -0.3723484
     -0.5871168  0.15672407 -0.21496881 -0.20973503 -0.37234835  1.0462750

  State 2
            mean  cov matrix                                               
      0.07949112  1.14644170  0.21413163 -0.05544488 -0.02902406 0.04179052
      0.15306029  0.21413163  0.84865045 -0.19661403 -0.12397740 0.01617397
     -0.03560680 -0.05544488 -0.19661403  1.25872915  0.15638695 0.03917204
      0.07304988 -0.02902406 -0.12397740  0.15638695  0.70073838 0.02934227
      0.35500064  0.04179052  0.01617397  0.03917204  0.02934227 0.65031019

  State 3
           mean  cov matrix                                              
     -0.5093426  0.60603137 -0.21462708  0.06322606  0.27231407 0.1076386
      0.1526545 -0.21462708  0.56847783 -0.06347737 -0.15941211 0.2161427
     -1.0672876  0.06322606 -0.06347737  0.17662599  0.08658292 0.1981628
      0.7778853  0.27231407 -0.15941211  0.08658292  1.17497274 0.4802186
     -0.2541008  0.10763858  0.21614270  0.19816276  0.48021858 0.7488420


Log-likelihood: -1379.07
BIC criterium: 3118.43
AIC criterium: 2894.14

这里有一个三个州的模型

 
mytarmailS#:

嗯,这就是有趣的事情...

你说 "规律性"。我不知道那是什么,所以我没有问你,去上网查了一下,结果发现你不是这个意思。如果我没有理解这一点,我们现在就会用同一个概念(规律性)来暗示不同的事情,所以我们永远也不会弄清楚......

而这一切都是因为一个伪科学的白痴......。

这种伪科学的寓意是,静止性并不意味着可预测性,反之亦然 :D 市场是不可预测的,因为它们是非静止的。而且他们不是不稳定的,因为他们是不可预知的。就这样吧,我累了。
 
马克西姆-德米特里耶夫斯基#:
各位,我很累了

我也是)

 
mytarmailS#:

那么,什么是需要优化的?

这里有一个三态模型。

所以一切都已经被鲍姆-韦尔奇算法优化了。可能性的对数的最佳值写出来如下。参数(过渡矩阵和其他)被计算出来。

 
顺便说一下,"正则化 "一词在描述梳理和套索回归时也被使用)在那里,它意味着将系数压缩到零,以减少模型的方差。
 
Aleksey Nikolayev#:

所以一切都已经通过鲍姆-韦尔奇算法进行了优化。似然对数的最佳值写出来如下。参数(过渡矩阵和其他)被计算出来。

只是 一个训练到三种状态的模型,我想要的是一个 能训练到我的健身函数满意的 模型。

想象一下,我训练神经元,通过遗传学改变它的权重,然后看它的健身情况。

我想用SMM做同样的事情,但我要改变它的过渡矩阵。


但要改变神经元的权重是很清楚的,而这个神经元就不太清楚了。

 
mytarmailS#:

这是一个在三种状态下训练的模型,我想要一个将被训练的模型,使我的健身函数得到满足。

想象一下,我训练一个神经元,用遗传学改变它的权重,看它的适配性。

我想用SMM做同样的事情,但我要改变它的过渡矩阵。


但对于神经元的权重,要改变什么是很清楚的,而这里就不太清楚了。

我明白我需要什么,我需要能够设置一个自定义的FF。但这个函数HMMFit()不支持这种可能性,因为它实现的是一个带有刚性缝合的LLH的Baum-Welch。你只能设置一些鲍姆-韦尔奇的参数

你需要另一个包,你可以指定一个自定义短语。