트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2559

 
mytarmailS # :

지옥으로 가는 길을 찾고 계십니까? :)

문제는 내가 이러한 정의를 모두 생각해내지 못해서 더 정확한 정보를 얻기 위해 Google에만 보낼 수 있다는 것입니다. 나중에 그 기사에 대한 링크를 찾을 수 있습니다. 그러나 시리즈의 엔트로피 분석에 대해서는 고정되어 있지 않으며 그다지
 
막심 드미트리예프스키 # :
문제는 내가 이러한 정의를 모두 생각해내지 못해서 더 정확한 정보를 얻기 위해 Google에만 보낼 수 있다는 것입니다. 나중에 그 기사에 대한 링크를 찾을 수 있습니다

여튼 멋져..

'정기성'이라고 하셨는데 그게 뭔지 모르겠고 물어보지도 않고 구글에 가보니 생각하신게 이게 아니더라구요. 내가 이것을 이해하지 못했다면 우리는 이제 다른 것을 의미하는 동일한 개념 (규칙성)을 사용하므로 공통점에 도달하지 못할 것입니다 ..

그리고 이 모든 것은 한 사이비 과학 바보 때문에 ..

 
mytarmailS # :

SMM을 가르치고 싶지만, 특이한 방식으로, 하지만 피트니스 기능을 통해, 유전적이든 아니면..

Karoch 상태 전이 행렬을 직접 만들고 싶습니다. 패키지가 있습니다. 이러한 행렬이 있지만 정확히 무엇을 어디서 변경해야 하는지 잘 모르겠습니다. 도와주실 수 있나요?

HMM에서 적합도 함수는 로그 가능도입니다. 커스텀 f. f., 이것은 다른 방법입니다.

 
Alexey Nikolaev # :

HMM에서 적합도 함수는 로그 가능도입니다. 커스텀 f. f., 이것은 다른 방법입니다.

그렇다면 최적화해야 할 것은 무엇일까요?

fit <- HMMFit(x , nStates = 3 )
> fit

Call:
----
HMMFit(obs = x, nStates = 3 )

Model:
------
3 states HMM with 5 -d gaussian distribution

Baum-Welch algorithm status:
----------------------------
Number of iterations : 60
Last relative variation of LLH function: 0.000001

Estimation:
-----------

Initial probabilities:
           Pi 1          Pi 2 Pi 3
   2.636352 e- 255 2.770966 e- 50      1

Transition matrix:
          State 1     State 2     State 3
State 1 0.1864987 0.76046799 0.05303333
State 2 0.2539474 0.60377350 0.14227910
State 3 0.6191488 0.07157308 0.30927815

Conditionnal distribution parameters:

Distribution parameters:
  State 1
           mean  cov matrix                                               
       0.4752939    0.97587370    0.02993559 - 0.21805741    0.25639651    0.1567241
     - 0.5686039    0.02993559    0.85342747    0.43374921    0.18220534 - 0.2149688
       0.3739333 - 0.21805741    0.43374921    0.58127533 - 0.01600787 - 0.2097350
     - 0.3833589    0.25639651    0.18220534 - 0.01600787    1.13979299 - 0.3723484
     - 0.5871168    0.15672407 - 0.21496881 - 0.20973503 - 0.37234835    1.0462750

  State 2
            mean  cov matrix                                               
       0.07949112    1.14644170    0.21413163 - 0.05544488 - 0.02902406 0.04179052
       0.15306029    0.21413163    0.84865045 - 0.19661403 - 0.12397740 0.01617397
     - 0.03560680 - 0.05544488 - 0.19661403    1.25872915    0.15638695 0.03917204
       0.07304988 - 0.02902406 - 0.12397740    0.15638695    0.70073838 0.02934227
       0.35500064    0.04179052    0.01617397    0.03917204    0.02934227 0.65031019

  State 3
           mean  cov matrix                                              
     - 0.5093426    0.60603137 - 0.21462708    0.06322606    0.27231407 0.1076386
       0.1526545 - 0.21462708    0.56847783 - 0.06347737 - 0.15941211 0.2161427
     - 1.0672876    0.06322606 - 0.06347737    0.17662599    0.08658292 0.1981628
       0.7778853    0.27231407 - 0.15941211    0.08658292    1.17497274 0.4802186
     - 0.2541008    0.10763858    0.21614270    0.19816276    0.48021858 0.7488420


Log-likelihood: - 1379.07
BIC criterium: 3118.43
AIC criterium: 2894.14

다음은 세 가지 상태 모델입니다.

 
mytarmailS # :

여튼 멋져..

'정기성'이라고 하셨는데 그게 뭔지 모르겠고 물어보지도 않고 구글에 가보니 생각하신게 이게 아니더라구요. 내가 이것을 이해하지 못했다면 우리는 이제 다른 것을 의미하는 동일한 개념 (규칙성)을 사용하므로 공통점에 도달하지 못할 것입니다 ..

그리고 이 모든 것은 한 사이비 과학 바보 때문에 ..

이 사이비 과학의 교훈은 고정성이 예측 가능성을 의미하지 않으며 그 반대도 마찬가지입니다. D 시장은 고정적이지 않기 때문에 예측할 수 없습니다. 그리고 그것들은 예측할 수 없기 때문에 고정되어 있지 않습니다. 다, 난 피곤해
 
막심 드미트리예프스키 # :
다, 난 피곤해

저도요)

 
mytarmailS # :

그렇다면 최적화해야 할 것은 무엇일까요?

다음은 세 가지 상태 모델입니다.

따라서 Baum-Welsh 알고리즘을 통해 이미 최적화되어 있습니다. log-likelihood의 최적값은 아래와 같습니다. 매개변수(전환 행렬 및 기타)가 계산됩니다.

 
그건 그렇고, "정규화"라는 용어는 능선 및 올가미 회귀를 설명할 때도 사용됩니다. 거기에서 모델의 분산을 줄이기 위해 계수를 0으로 압축하는 것을 의미합니다.
 
Alexey Nikolaev # :

따라서 Baum-Welsh 알고리즘을 통해 이미 최적화되어 있습니다. log-likelihood의 최적값은 아래와 같습니다. 매개변수(전환 행렬 및 기타)가 계산됩니다.

그것은 세 가지 상태에서 훈련된 모델 일 뿐이며 , 제 적합성에 맞게 훈련될 모델을 원합니다. 재미있는. 만족했다.

내가 뉴런을 훈련시키고 유전학으로 가중치를 변경하고 fit.fu를 관찰한다고 상상해보십시오.

그것은 내가 SMM으로 하고자 하는 것과 동일합니다. 단지 전환 매트릭스만 변경할 것입니다.


그러나 뉴런의 가중치로 인해 무엇을 변경해야 할지 분명한 것처럼 보이지만 여기서는 그다지 중요하지 않습니다.

 
mytarmailS # :

이것은 세 가지 상태에서 훈련된 모델이며, 제 적합성에 맞게 훈련될 모델을 원합니다. 재미있는. 만족했다.

내가 뉴런을 훈련시키고 유전학으로 가중치를 변경하고 fit.fu를 관찰한다고 상상해보십시오.

그것은 내가 SMM으로 하고자 하는 것과 동일합니다. 단지 전환 매트릭스만 변경할 것입니다.


그러나 뉴런의 가중치로 인해 무엇을 변경해야 할지 분명한 것처럼 보이지만 여기서는 그다지 중요하지 않습니다.

나는 내가 필요로 하는 것, 즉 사용자 정의 ff를 설정할 수 있는 가능성을 이해했습니다. 그러나 이 HMMFit() 함수는 하드코딩된 f로 Baum-Welsh를 구현하기 때문에 이러한 가능성을 지원하지 않습니다. 에프. - 헐. 일부 Baum-Welsh 매개변수만 설정할 수 있습니다.

사용자 정의 f를 설정할 수 있는 다른 패키지가 필요합니다. 에프.