Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2559

 
mytarmailS #:

Хочу обучить СММ , но необычным спосом а через фитнес функцию , генетическим или другим..

Кароч хочу сам делать матрицы перехехода состояний..  Есть пакет, есть эти матрицы но что именно и где менять я не очень понимаю, можешь помочь с этим?

В HMM фитнес функция - логарифм правдоподобия. Если придумывать кастомную ф. ф., то это уже какой-то другой метод. 

 
Aleksey Nikolayev #:

В HMM фитнес функция - логарифм правдоподобия. Если придумывать кастомную ф. ф., то это уже какой-то другой метод. 

Так что надо оптимизировать  ?

fit <- HMMFit(x , nStates = 3)
> fit

Call:
----
HMMFit(obs = x, nStates = 3)

Model:
------
3 states HMM with 5-d gaussian distribution

Baum-Welch algorithm status:
----------------------------
Number of iterations : 60
Last relative variation of LLH function: 0.000001

Estimation:
-----------

Initial probabilities:
           Pi 1         Pi 2 Pi 3
  2.636352e-255 2.770966e-50    1

Transition matrix:
          State 1    State 2    State 3
State 1 0.1864987 0.76046799 0.05303333
State 2 0.2539474 0.60377350 0.14227910
State 3 0.6191488 0.07157308 0.30927815

Conditionnal distribution parameters:

Distribution parameters:
  State 1
           mean  cov matrix                                               
      0.4752939  0.97587370  0.02993559 -0.21805741  0.25639651  0.1567241
     -0.5686039  0.02993559  0.85342747  0.43374921  0.18220534 -0.2149688
      0.3739333 -0.21805741  0.43374921  0.58127533 -0.01600787 -0.2097350
     -0.3833589  0.25639651  0.18220534 -0.01600787  1.13979299 -0.3723484
     -0.5871168  0.15672407 -0.21496881 -0.20973503 -0.37234835  1.0462750

  State 2
            mean  cov matrix                                               
      0.07949112  1.14644170  0.21413163 -0.05544488 -0.02902406 0.04179052
      0.15306029  0.21413163  0.84865045 -0.19661403 -0.12397740 0.01617397
     -0.03560680 -0.05544488 -0.19661403  1.25872915  0.15638695 0.03917204
      0.07304988 -0.02902406 -0.12397740  0.15638695  0.70073838 0.02934227
      0.35500064  0.04179052  0.01617397  0.03917204  0.02934227 0.65031019

  State 3
           mean  cov matrix                                              
     -0.5093426  0.60603137 -0.21462708  0.06322606  0.27231407 0.1076386
      0.1526545 -0.21462708  0.56847783 -0.06347737 -0.15941211 0.2161427
     -1.0672876  0.06322606 -0.06347737  0.17662599  0.08658292 0.1981628
      0.7778853  0.27231407 -0.15941211  0.08658292  1.17497274 0.4802186
     -0.2541008  0.10763858  0.21614270  0.19816276  0.48021858 0.7488420


Log-likelihood: -1379.07
BIC criterium: 3118.43
AIC criterium: 2894.14

вот модель на три состояния

 
mytarmailS #:

Так в том то и прикол..

Ты сказал "регулярность" , я не знаю что это, и не стал тебя спрашывать и пошел гуглить и оказалость что это не то что ты имел ввиду. Если бы я этого не понял то мы бы сейчас пользовались одним понятием (регулярность) подразумевая разное, тем самым никогда бы не дошли до чего то общего..

И все это из за одного псевдонаучного идиота..

Мораль этой псевдонауки такова, что стационарность не означает предсказуемость, и наоборот :D Рынки непредсказуемы на из-за того, что они нестационарны. И нестационарны они не из-за того, что непредсказуемы. Все, я устал
 
Maxim Dmitrievsky #:
 Все, я устал

я тоже)

 
mytarmailS #:

Так что надо оптимизировать  ?

вот модель на три состояния

Так всё же уже оптимизировано посредством алгоритма Баума-Велша. Оптимальное значение логарифма правдоподобия внизу выписано. Параметры (матрица перехода и другие) подсчитаны.

 
Кстати, термин "регуляризация" используется ещё при описании гребневой и лассо регрессий) Там это означает сжатие коэффициентов к нулю с целью уменьшения дисперсии модели.
 
Aleksey Nikolayev #:

Так всё же уже оптимизировано посредством алгоритма Баума-Велша. Оптимальное значение логарифма правдоподобия внизу выписано. Параметры (матрица перехода и другие) подсчитаны.

это просто модель обученая трем состояниям, а я хочу модель которая будет обучена так что моя фит. фун. была довольна.  

Предствь себе что я тренирую нейронку , генетикой изменяю ее веса и смотрю фит.фу.

Вот тоже самое я хочу сделать с СММ , только изменять я буду ее матрицы перехода


Но  с весами нейронки как бы понятно что менять , а тут не очень

 
mytarmailS #:

это модель обученая трем состояниям, а я хочу модель которая будет обучена так что моя фит. фун. была довольна.  

Предствь себе что я тренирую нейронку , генетикой изменяю ее веса и смотрю фит.фу.

Вот тоже самое я хочу сделать с СММ , только изменять я буду ее матрицы перехода


Но  с весами нейронки как бы понятно что менять , а тут не очень

То что нужно вроде понял - возможность задания кастомной ф.ф. Но данная функция HMMFit() не поддерживает такой возможности, поскольку она реализует Баума-Велша с жёстко вшитой в него ф. ф. - LLH. Можно лишь задать какие-то параметры Баума-Велша

Нужен другой пакет, где можно задавать пользовательскую ф. ф.

 
Aleksey Nikolayev #:

То что нужно вроде понял - возможность задания кастомной ф.ф. Но данная функция HMMFit() не поддерживает такой возможности, поскольку она реализует Баума-Велша с жёстко вшитой в него ф. ф. - LLH. Можно лишь задать какие-то параметры Баума-Велша

Нужен другой пакет, где можно задавать пользовательскую ф. ф.

Прикол в том что я не встречал таких пактов с АМО где можно свою фф использовать..

либо задаешь X,Y  (дата, таргет) либо просто Х(дата)

Но всегда есть возможность залезть в "кишки" АМО и там их шевелить и смотреть что будет с точки зрения ф.ф.

Что я и делаю, это такой лайф хак мой , нейронку я так тренировал, форест тоже , теперь хочу СММ еще

 
mytarmailS #:

Прикол в том что я не встречал таких пактов с АМО где можно свою фф использовать..

либо задаешь X,Y  (дата, таргет) либо просто Х(дата)

Но всегда есть возможность залезть в "кишки" АМО и там их шевелить и смотреть что будет с точки зрения ф.ф.

Что я и делаю, это такой лайф хак мой , нейронку я так тренировал, форест тоже , теперь хочу СММ еще

В LightGBM можно задавать свою, но чаще всего такой возможности нет.

Причина обращения: