Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1205

 
FxTrader562:

Ok, if you want , then you can provide me the code so that I can have a look at it.

better if you just wait for article, because I have too many versions

 
mytarmailS:

А зависимость то по ходу есть...

Натренировал "СММ" (скрытую Марковскую модель) на ретурнах , разбивал на 10 состояний те обучал без учителя, те она сама разделила разные распределения


распределения состояний


А здесь я сгруппировал  ретурны по состояниям , те каждый ряд это  отдельное состояние рынка

В некоторых состояниях (1,4,6,8,9) наблюдений слишком мало, так что их вообще можно не воспринимать

А теперь я попробую востановить  ряды, те сделать кумулятивную сумму, вдруг в каком то из состояний найдется какая то тенденция - те закономерность в направлении

Сделал кумулятивную сумму 

состояния 5 и 7 имеют устойчивую структуру , 5 для бая , а 7 для села

ну наконец то ты начал в нужном направлении идти :)

остается брутфорсить всю эту фигню элементарным перебором и выбирать лучшую модель

логическими умозаключениями и великим методом дедукции прибыльную схему не подобрать никогда, слишком много вариков
 
Maxim Dmitrievsky:

ну наконец то ты начал в нужном направлении идти :)

остается брутфорсить всю эту фигню элементарным перебором и выбирать лучшую модель

логическими умозаключениями и великим методом дедукции прибыльную схему не подобрать никогда, слишком много вариков

только вот прикол, именно эти состояния  5 и 7 наиболее часто меняются,  те не продолжытельны по времени и еще прикол что именно они между собой и переключаються))


график переходов состояний 


А так выглядит если их торговать. Красный сел и синий бай


 
Maxim Dmitrievsky:

сейчас хочу добавить в оптимизируемые параметры зависимость сигналов от распределений, такое сделал для начала, посмотреть

если эксцесс выше какого-то значения (можно оптить), то наблюдается флэтовая ситуация и можно с одинаковой вероятностью предполагать покупки\продажи (а потом пофиксить все неправильные)

дальше по асимметрии, если есть в какую-то сторону то смещается вероятность возникновения сигнала на бай или на селл

ну это примитив, но примерно так можно подбирать целевые в оптимизаторе

Все что нужно получать из метрик - это ошибку классификации на тестовой выборке (а обучаться на тренировочной). В оптимизаторе перебираются гиперпараметры, выбираетс модель с наименьшей ошибкой. Что здесь неинтерпретируемо? достаточно просто знать, глядя на ошибки на тестовых данных, способна такая модель обобщать или нет

пример работы на такой лабуде, только что сделал


Вопрос в интерпретируемости выбранной в итоге модели (которая собственно и будет торговать).

 
mytarmailS:

только вот прикол, именно эти состояния  5 и 7 наиболее часто меняются,  те не продолжытельны по времени и еще прикол что именно они между собой и переключаються))


график переходов состояний 


А так выглядит если их торговать. Красный сел и синий бай


ну делай через RL всё, марковскую модель же надо чем-то аппроксимировать

 
Aleksey Nikolayev:

Вопрос в интерпретируемости выбранной в итоге модели (которая собственно и будет торговать).

индуктивные модели не интерпретируемые, как правило, что генетическое программирование, что нейросети.. долго разбирать по частям обратно

в питоне и Р, наверное, есть соответствующие пакеты

пример для деревьев 
How to visualize decision tree
How to visualize decision tree
  • explained.ai
Decision trees are the fundamental building block of gradient boosting machines and Random Forests(tm), probably the two most popular machine learning models for structured data. Visualizing decision trees is a tremendous aid when learning how these models work and when interpreting models. Unfortunately, current visualization packages are rudimentary and not immediately helpful to the novice. For example, we couldn't find a library that visualizes how decision nodes split up the feature space. So, we've created a general package (part of the animl library) for scikit-learn decision tree visualization and model interpretation.
 
Maxim Dmitrievsky:

ну делай через RL всё, марковскую модель же надо чем-то аппроксимировать

А зачем ее апроксимировать? она и так уже разбита на 10 состояний алгоритмом Витерби, как кластера по сути

Я вот думаю что цену нужно предварительно как то апроксимировать перед тем как ретурны делать, или не делать ретурны? нужно еще подумать кароч

 

Кстати если кто хочет  побаловаться с "смм"  то вот статья с кодом и примерами на Р

http://gekkoquant.com/2014/09/07/hidden-markov-models-examples-in-r-part-3-of-4/

Hidden Markov Models – Examples In R – Part 3 of 4
Hidden Markov Models – Examples In R – Part 3 of 4
  • 2014.09.07
  • GekkoQuant
  • gekkoquant.com
This post will explore how to train hidden markov models in R. The previous posts in this series detailed the maths that power the HMM, fortunately all of this has been implemented for us in the RHmm package. HMMs can be used in two ways for regime detection, the first is to use a single HMM where each state in the HMM is considered a “regime”...
 
mytarmailS:

А зачем ее апроксимировать? она и так уже разбита на 10 состояний алгоритмом Витерби, как кластера по сути

Я вот думаю что цену нужно предварительно как то апроксимировать перед тем как ретурны делать, или не делать ретурны? нужно еще подумать кароч

ну от модели зависит, сложно сказать что там надо аппроксимировать а что не надо ) я просто ретурны беру обычно

 
mytarmailS:

Кстати если кто хочет  побаловаться с "смм"  то вот статья с кодом и примерами на Р

http://gekkoquant.com/2014/09/07/hidden-markov-models-examples-in-r-part-3-of-4/

Кстати, состояния СММ в статье вполне интерпретируемые.

Причина обращения: