Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 353

 
Yuriy Asaulenko:
Вообще, если говорить о минутах, то рынок статистически однороден, т.е. статистика мало меняется (стабильна) от недели к недели, от месяца к месяцу. На бОльших ТФ, не знаю, вопрос не изучал. Насколько помню, вы на 1 мин работаете.


15 мин основной тф, или по OHLC на минутках но рабочий все равно 15 мин. Хотелось бы по тикам, но оочень медленно оптимизирует, сейчас человек пишет тестер на С++, там гораздо быстрее можно будет заоптить

В принципе, если часто переоптимизировать на небольших периодах то можно и на минутках. Не Грааль, конечно, но что-то можно заработать.


 
А кто-нибудь пробовал реализовывать Q learning или другие reinforcement алгоритмы? Возможно есть такие знакомые? Интересует статистика, насколько хорошо они справляются с задачей управления депозитом? Находил пару-тройку статей на эту тему, но там выводы довольно сумбурные и не однозначные.
 
Как обещал, опубликовал в блоге краткий отчет по задаче о распознавании НС пересечения МА - НЕЙРОСЕТИ И ПЕРЕСЕЧЕНИЕ MOVING AVERAGE
 
Yuriy Asaulenko:
Как обещал, опубликовал в блоге краткий отчет по задаче о распознавании НС пересечения МА - НЕЙРОСЕТИ И ПЕРЕСЕЧЕНИЕ MOVING AVERAGE

В новостях, статьях и т.д. говорят о достижениях нейросетей, например, что они котят от щенят отличают и т.д. Но очевидно там оч. дорогие коммерческие или эксперементальные сети, которые обычным трейдерам не по карману и разработать не под силу.

А могут ли доступные нам НС (например из R или ALGLIB) различать примитивные вещи, например треугольники, квадраты и окружности друг от друга?Прямо как из обучающих игр для детей 2-3 летнего возраста.

Мне кажется материалы по этой теме можно оформить в новой ветке https://www.mql5.com/ru/forum/192779 чтобы, (если будет результат и возможность повторить эксперимент) можно было его найти и повторить, а тут на 350 страницах уже сложно что-то найти...
Насколько доступные трейдерам нейросети умны?
Насколько доступные трейдерам нейросети умны?
  • 2017.05.16
  • www.mql5.com
В новостях, статьях и т.д. говорят о достижениях нейросетей, например, что они котят от щенят отличают и т.д. Но очевидно там оч...
 
elibrarius:

В новостях, статьях и т.д. говорят о достижениях нейросетей, например, что они котят от щенят отличают и т.д. Но очевидно там оч. дорогие коммерческие или эксперементальные сети, которые обычным трейдерам не по карману и разработать не под силу.

А могут ли доступные нам НС (например из R или ALGLIB) различать примитивные вещи, например треугольники, квадраты и окружности друг от друга?Прямо как из обучающих игр для детей 2-3 летнего возраста.

Ну и совсем сложный вариант - объемные фигуры...

На счет Алглиб не в курсе, но в R можно, для этого нужна входная матрица размером примерно 16х16. Это 256 нейронов по входу.) Ну. м.б. немного меньше. В инет можно найти готовые реализации для подобной задачи.

С поворотом тоже можно, но НС поглубже и посложней будет. Лично я, пас.))

Хотя, для построения ТС, применения именно ваших задач в этом виде не вижу.

 
Yuriy Asaulenko:

Хотя, для построения ТС, применения именно ваших задач в этом виде не вижу.

Просто хочется, убедиться, что доступные нам сети смогут справиться с простыми задачами, прежде чем применять их для более сложных задач трейдинга.
 
elibrarius:
Просто хочется, убедиться, что доступные нам сети смогут справиться с простыми задачами, прежде чем применять их для более сложных задач трейдинга.
После экспериментов с МА, на данном этапе, я вижу основную проблему применения НС в ТС в подготовке данных, подаваемых на входы НС. Сырые данные, скорее всего, для большинства НС несъедобны.
 
elibrarius:
Просто хочется, убедиться, что доступные нам сети смогут справиться с простыми задачами, прежде чем применять их для более сложных задач трейдинга.

Квадратики  и кружки распознавать легко научится самый классический MLP без проблем, если Вы немного углубитесь в тему то встретите классическую задачу распознавания рукописных цифр MNIST, там обычный MLP с ветерком до 97% долетает, потом со скрипом ещё пол процента, а потом уже начинаются танцы с бубном. Собственно такой ситуационный паттерн узнаётся во многих задачах по ML, битва в основном идет не за достаточный результат, а за 3-5 знаки после запятой в скоре.

 
Yuriy Asaulenko:
После экспериментов с МА, на данном этапе, я вижу основную проблему применения НС в ТС в подготовке данных, подаваемых на входы НС. Сырые данные, скорее всего, для большинства НС несъедобны.

Эта ветка начата в основном для решения этой задачи. Но  удостовериться на собственном опыте в важности этого вопроса   намного полезней. Вы в начале сложного но интересного пути.

Удачи

ПС. В R, а через него в Python,  доступны все самые сложные нейросети, известные на настоящий момент. Нужно только научится их использовать.

 
СанСаныч Фоменко:


Да и шут с ним.

Тупо берем самое простое - случайный лес. Обычно в результате обучения получаем классы. В реальности же алгоритм дает вероятность класса, из которой получаем класс. Обычно делят вероятность пополам при двух классах.

А если делить на классы так: 0 - 0.1 это один класс и 0.9 - 1.0 другой класс? А промежуток между 0.1 - 0.9 - это вне рынка?

Вот что я увидел в статье.

Более правильно и элегантно это решено в  calibrate::CORELearn/ 

И уже довольно давно. 

Удачи