Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 353
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Вообще, если говорить о минутах, то рынок статистически однороден, т.е. статистика мало меняется (стабильна) от недели к недели, от месяца к месяцу. На бОльших ТФ, не знаю, вопрос не изучал. Насколько помню, вы на 1 мин работаете.
15 мин основной тф, или по OHLC на минутках но рабочий все равно 15 мин. Хотелось бы по тикам, но оочень медленно оптимизирует, сейчас человек пишет тестер на С++, там гораздо быстрее можно будет заоптить
В принципе, если часто переоптимизировать на небольших периодах то можно и на минутках. Не Грааль, конечно, но что-то можно заработать.
Как обещал, опубликовал в блоге краткий отчет по задаче о распознавании НС пересечения МА - НЕЙРОСЕТИ И ПЕРЕСЕЧЕНИЕ MOVING AVERAGE
В новостях, статьях и т.д. говорят о достижениях нейросетей, например, что они котят от щенят отличают и т.д. Но очевидно там оч. дорогие коммерческие или эксперементальные сети, которые обычным трейдерам не по карману и разработать не под силу.
А могут ли доступные нам НС (например из R или ALGLIB) различать примитивные вещи, например треугольники, квадраты и окружности друг от друга?Прямо как из обучающих игр для детей 2-3 летнего возраста.
Мне кажется материалы по этой теме можно оформить в новой ветке https://www.mql5.com/ru/forum/192779 чтобы, (если будет результат и возможность повторить эксперимент) можно было его найти и повторить, а тут на 350 страницах уже сложно что-то найти...В новостях, статьях и т.д. говорят о достижениях нейросетей, например, что они котят от щенят отличают и т.д. Но очевидно там оч. дорогие коммерческие или эксперементальные сети, которые обычным трейдерам не по карману и разработать не под силу.
А могут ли доступные нам НС (например из R или ALGLIB) различать примитивные вещи, например треугольники, квадраты и окружности друг от друга?Прямо как из обучающих игр для детей 2-3 летнего возраста.
Ну и совсем сложный вариант - объемные фигуры...
На счет Алглиб не в курсе, но в R можно, для этого нужна входная матрица размером примерно 16х16. Это 256 нейронов по входу.) Ну. м.б. немного меньше. В инет можно найти готовые реализации для подобной задачи.
С поворотом тоже можно, но НС поглубже и посложней будет. Лично я, пас.))
Хотя, для построения ТС, применения именно ваших задач в этом виде не вижу.
Хотя, для построения ТС, применения именно ваших задач в этом виде не вижу.
Просто хочется, убедиться, что доступные нам сети смогут справиться с простыми задачами, прежде чем применять их для более сложных задач трейдинга.
Просто хочется, убедиться, что доступные нам сети смогут справиться с простыми задачами, прежде чем применять их для более сложных задач трейдинга.
Квадратики и кружки распознавать легко научится самый классический MLP без проблем, если Вы немного углубитесь в тему то встретите классическую задачу распознавания рукописных цифр MNIST, там обычный MLP с ветерком до 97% долетает, потом со скрипом ещё пол процента, а потом уже начинаются танцы с бубном. Собственно такой ситуационный паттерн узнаётся во многих задачах по ML, битва в основном идет не за достаточный результат, а за 3-5 знаки после запятой в скоре.
После экспериментов с МА, на данном этапе, я вижу основную проблему применения НС в ТС в подготовке данных, подаваемых на входы НС. Сырые данные, скорее всего, для большинства НС несъедобны.
Эта ветка начата в основном для решения этой задачи. Но удостовериться на собственном опыте в важности этого вопроса намного полезней. Вы в начале сложного но интересного пути.
Удачи
ПС. В R, а через него в Python, доступны все самые сложные нейросети, известные на настоящий момент. Нужно только научится их использовать.
Да и шут с ним.
Тупо берем самое простое - случайный лес. Обычно в результате обучения получаем классы. В реальности же алгоритм дает вероятность класса, из которой получаем класс. Обычно делят вероятность пополам при двух классах.
А если делить на классы так: 0 - 0.1 это один класс и 0.9 - 1.0 другой класс? А промежуток между 0.1 - 0.9 - это вне рынка?
Вот что я увидел в статье.
Более правильно и элегантно это решено в calibrate::CORELearn/
И уже довольно давно.
Удачи