Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1168

 
Maxim Dmitrievsky:

Интересует ваше мнение по поводу использования графика каги для МО. Насколько часто он используется и насколько это осмысленно на ваш взгляд?

 
Aleksey Nikolayev:

Интересует ваше мнение по поводу использования графика каги для МО. Насколько часто он используется и насколько это осмысленно на ваш взгляд?

думаю что это обычный индикатор изменения цены на некторую величину, как и ренко.. в каких ситуациях может быть применено: например, для фильтрации "шума", но это можно делать и через мувинг, например, с точно таким же запаздыванием. Поэтому если есть потребность получать запаздывающие отфильтрованные данные - то мб и есть смысл, но на практике скорее всего нет такой задачи получать сильно запаздывающую рыночную инфу

 
Maxim Dmitrievsky:

думаю что это обычный индикатор изменения цены на некторую величину, как и ренко.. в каких ситуациях может быть применено: например, для фильтрации "шума", но это можно делать и через мувинг, например, с точно таким же запаздыванием. Поэтому если есть потребность получать запаздывающие отфильтрованные данные - то мб и есть смысл, но на практике скорее всего нет такой задачи получать сильно запаздывающую рыночную инфу

Речь скорее не о практике. Такие графики создают некоторую связь между рынком и "упражнениями с монетками".

Кусочно-стационарное СБ плохо моделирует флэт. Очевидное развитие модели - кусочно-однородная марковская цепь. Для её обучения вполне можно использовать МО. Наверняка кто-нибудь делал что-то похожее, но я ничего не нашёл.

 
 
Aleksey Nikolayev:

Интересует ваше мнение по поводу использования графика каги для МО. Насколько часто он используется и насколько это осмысленно на ваш взгляд?

хм, думал сегодня в эту ветку запостить лес обученный графикам Ренко,

читал где то , что у некоторой категории людей мысли сходятся )))

 
Igor Makanu:

хм, думал сегодня в эту ветку запостить лес обученный графикам Ренко,

читал где то , что у некоторой категории людей мысли сходятся )))

нормально, добавь в инпуты возможность оптимизации настроек ренко, вот и позырим 

а вообще можешь заюзать мой пример бандита для графика Вейерштрасса, поменяв логит на лес
 
Maxim Dmitrievsky:

для перехода на пайтон без заморочек и для решения примеров рекомендую google colaboratory

за "смену монетки" можно принять условные вероятности (следы преемственности), насколько понимаю, которые, в пределе, будут сходиться к 50\50, но в моменте могут быть варианты. Об этом как раз и есть байесовский подход, в отличие от частотного (различие априорного и апостериорного распределений). Это как бы мое скромное видение происходящего в данной книге на данный момент, поскольку плохо знаком с байесовской статистикой , хотя там по сути одно уравнение и всё :)

но есть подозрение в возможности применения этого для поиска условных закономерностей, если это можно так назвать. А нейросеть уже просто для обобщения

по крайней мере, такой подход пытаюсь добавить к своим RL бандитам

поправьте меня если я гоню

У меня стоит Sagemath, который основан на питоне.

Про 50/50 в пределе я согласен, хотя формализовать это можно по-разному. Хочется найти какую-то простую модель позволяющую отличать наши графики от симметричного СБ на коротких промежутках времени. Бандиты мне кажутся достаточно сложными, как и скрытые марковские модели, что бы привести к переобучению. 

Не обращайте внимание на противопоставление частотного подхода байесовскому - они вполне сосуществуют в теорвере)

Проблема поиска закономерностей, на мой взгляд, всё в той же нестационарности

 
Maxim Dmitrievsky:

можно получить по 100% прибыли в мес.

Зер гут, Макс! Це - Грааль и он прячется в приращениях. Его просто не так легко увидеть - но он там, 100%.

 
Maxim Dmitrievsky:

через модель перебираем приращения

Именно так и никак иначе.

Должны быть точные критерии исключения конкретного приращения из набора или вообще конкретной выборки приращений из анализа.

Я для этих целей использую эксцесс и асимметрию распределения приращений скользящей выборки. Если текущая выборка не удовлетворяет неким табличным значениям - вообще ее не рассматриваю.

Считаю это одним из рабочих методов предобработки данных - возможно, есть и другие.

Результаты моей ТС невероятно улучшились - но, я пока не радуюсь, уж сколько обжигался... Жду предстоящую неделю.

 

Короче.

Еще раз говорю наиболее упоротым нейросетевикам.

Хотите вы того или нет - нейросеть, как и любой другой вид анализа и прогнозирования ВР, может работать исключительно и только на стационарных рядах. Неужели вы, с нижайшим образованием, думаете, что умнее Колмогорова?!

Так будьте любезны делать предобработку ВР - исключайте из нее те приращения, которые приводят к нестационарности процесса - а именно аномальные выбросы в тяжелые хвосты распределений.

Если вы уверены, что любой вид сглаживания/фильтрации приводит к запаздыванию - просто исключайте из ВР аномальные данные или цепочки данных и все.

Аминь.