Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2559

 
mytarmailS # :

cehenneme giden bir yol mu arıyorsunuz? :)

Sorun şu ki, tüm bu tanımları ben yapmıyorum, bu yüzden sadece daha doğru bilgi için Google'a gönderebiliyorum. O makalenin bağlantısını daha sonra bulabilirim. Ama orada serilerin entropi analizi hakkında, durağan ve çok değil
 
Maksim Dmitrievski # :
Sorun şu ki, tüm bu tanımları ben yapmıyorum, bu yüzden sadece daha doğru bilgi için Google'a gönderebiliyorum. O makalenin bağlantısını daha sonra bulabilirim

Yani güzel olan bu..

"Düzenlilik" dedin, ne olduğunu bilmiyorum ve sana sormadım ve google'a gittim ve aklındakinin bu olmadığı ortaya çıktı. Bunu anlamasaydım, şimdi aynı kavramı (düzenlilik) farklı anlamlarda kullanırdık, böylece ortak bir şeye asla ulaşamazdık..

Ve tüm bunlar bir sözde bilimsel salak yüzünden ..

 
mytarmailS # :

SMM'yi öğretmek istiyorum, ancak alışılmadık bir şekilde, ancak bir uygunluk fonksiyonu aracılığıyla, genetik veya başka bir şekilde..

Karoch Durum geçiş matrislerini kendim yapmak istiyorum.. Bir paket var, bu matrisler var ama tam olarak neyi ve nerede değiştireceğimi tam olarak anlamadım bu konuda yardımcı olur musunuz?

HMM'de uygunluk fonksiyonu log olasılığıdır. Özel bir f ile gelirseniz. f., o zaman bu başka bir yöntem.

 
Alexey Nikolaev # :

HMM'de uygunluk fonksiyonu log olasılığıdır. Özel bir f ile gelirseniz. f., o zaman bu başka bir yöntem.

Peki neyin optimize edilmesi gerekiyor?

fit <- HMMFit(x , nStates = 3 )
> fit

Call:
----
HMMFit(obs = x, nStates = 3 )

Model:
------
3 states HMM with 5 -d gaussian distribution

Baum-Welch algorithm status:
----------------------------
Number of iterations : 60
Last relative variation of LLH function: 0.000001

Estimation:
-----------

Initial probabilities:
           Pi 1          Pi 2 Pi 3
   2.636352 e- 255 2.770966 e- 50      1

Transition matrix:
          State 1     State 2     State 3
State 1 0.1864987 0.76046799 0.05303333
State 2 0.2539474 0.60377350 0.14227910
State 3 0.6191488 0.07157308 0.30927815

Conditionnal distribution parameters:

Distribution parameters:
  State 1
           mean  cov matrix                                               
       0.4752939    0.97587370    0.02993559 - 0.21805741    0.25639651    0.1567241
     - 0.5686039    0.02993559    0.85342747    0.43374921    0.18220534 - 0.2149688
       0.3739333 - 0.21805741    0.43374921    0.58127533 - 0.01600787 - 0.2097350
     - 0.3833589    0.25639651    0.18220534 - 0.01600787    1.13979299 - 0.3723484
     - 0.5871168    0.15672407 - 0.21496881 - 0.20973503 - 0.37234835    1.0462750

  State 2
            mean  cov matrix                                               
       0.07949112    1.14644170    0.21413163 - 0.05544488 - 0.02902406 0.04179052
       0.15306029    0.21413163    0.84865045 - 0.19661403 - 0.12397740 0.01617397
     - 0.03560680 - 0.05544488 - 0.19661403    1.25872915    0.15638695 0.03917204
       0.07304988 - 0.02902406 - 0.12397740    0.15638695    0.70073838 0.02934227
       0.35500064    0.04179052    0.01617397    0.03917204    0.02934227 0.65031019

  State 3
           mean  cov matrix                                              
     - 0.5093426    0.60603137 - 0.21462708    0.06322606    0.27231407 0.1076386
       0.1526545 - 0.21462708    0.56847783 - 0.06347737 - 0.15941211 0.2161427
     - 1.0672876    0.06322606 - 0.06347737    0.17662599    0.08658292 0.1981628
       0.7778853    0.27231407 - 0.15941211    0.08658292    1.17497274 0.4802186
     - 0.2541008    0.10763858    0.21614270    0.19816276    0.48021858 0.7488420


Log-likelihood: - 1379.07
BIC criterium: 3118.43
AIC criterium: 2894.14

işte üç durumlu bir model

 
mytarmailS # :

Yani güzel olan bu..

"Düzenlilik" dedin, ne olduğunu bilmiyorum ve sana sormadım ve google'a gittim ve aklındakinin bu olmadığı ortaya çıktı. Bunu anlamasaydım, şimdi aynı kavramı (düzenlilik) farklı anlamlarda kullanırdık, böylece ortak bir şeye asla ulaşamazdık..

Ve tüm bunlar bir sözde bilimsel salak yüzünden ..

Bu sözde bilimin verdiği ders, durağanlığın tahmin edilebilirlik anlamına gelmediği ve bunun tersi olduğudur :D Piyasalar durağan olmadıkları için tahmin edilemez. Ve durağan değiller çünkü tahmin edilemezler. Her şey, yorgunum
 
Maksim Dmitrievski # :
Her şey, yorgunum

ben de)

 
mytarmailS # :

Peki neyin optimize edilmesi gerekiyor?

işte üç durumlu bir model

Bu yüzden Baum-Welsh algoritması aracılığıyla zaten optimize edilmiştir. Log-olasılığının optimal değeri aşağıda yazılmıştır. Parametreler (geçiş matrisi ve diğerleri) hesaplanır.

 
Bu arada, "düzenleme" terimi, sırt ve kement regresyonlarını tanımlarken bile kullanılır) Burada, modelin varyansını azaltmak için katsayıları sıfıra sıkıştırmak anlamına gelir.
 
Alexey Nikolaev # :

Bu yüzden Baum-Welsh algoritması aracılığıyla zaten optimize edilmiştir. Log olasılığının optimal değeri aşağıda yazılmıştır. Parametreler (geçiş matrisi ve diğerleri) hesaplanır.

bu sadece üç eyalette eğitilmiş bir model ve benim için uygun şekilde eğitilecek bir model istiyorum. eğlence. memnun oldu.

Bir nöronu eğittiğimi, ağırlıklarını genetikle değiştirdiğimi ve fit.fu izlediğimi hayal edin.

SMM ile yapmak istediğim şey bu, sadece geçiş matrisini değiştireceğim


Ancak nöronun ağırlıkları ile, neyin değişeceği açık gibi, ama burada çok değil.

 
mytarmailS # :

bu üç eyalette eğitilmiş bir model ve benim için uygun şekilde eğitilecek bir model istiyorum. eğlence. memnun oldu.

Bir nöronu eğittiğimi, ağırlıklarını genetikle değiştirdiğimi ve fit.fu izlediğimi hayal edin.

SMM ile yapmak istediğim şey bu, sadece geçiş matrisini değiştireceğim


Ancak nöronun ağırlıkları ile neyin değişeceği açık gibi, ama burada çok değil.

Neye ihtiyacım olduğunu anladım - özel bir ff ayarlama olasılığı. Ancak bu HMMFit() işlevi, Baum-Welsh'i sabit kodlanmış bir f ile uyguladığı için bu olasılığı desteklemez. f. -LLH. Yalnızca bazı Baum-Welsh parametrelerini ayarlayabilirsiniz

Özel bir f ayarlayabileceğiniz başka bir pakete ihtiyacımız var. f.