Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3011
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Интересно, именно про будущее, раскроете секреты?
Несколько раз писал.
форест
на одном
Какой процент отбираете?
Мне кажется, что на форесте очень мало полезного, если он сплит использует по половине предиктора.
что вы говорите до сих пор никто не понимает, по-моему )
вот у него все понятно без слов и просто, по принципу бритвы Оккама
Нет, просто когда я пришел в ветку и начал говорить про отбор правил из деревьев и их оценку Вы смеялись над идеей.
Я сделал следующий шаг сейчас - создание условий для создания потенциально качественных правил через оценку квантовых отрезков предиктора, и опять сталкиваюсь с тотальным непониманием.
Несколько раз писал.
Тут приходится по сто раз говорить одно и тоже, что бы тебя услышали.
Нет, просто когда я пришел в ветку и начал говорить про отбор правил из деревьев и их оценку Вы смеялись над идеей.
Я сделал следующий шаг сейчас - создание условий для создания потенциально качественных правил через оценку квантовых отрезков предиктора, и опять сталкиваюсь с тотальным непониманием.
то есть через простое вытаскивание правил из дерева не получилось счастья? В теории, там тоже как повезет, но за счет их (правил) количества можно было бы найти что-то
ведь это примерно то же самое, что перебор параметров стратегии в оптимизаторе, но в более изящном исполнениито есть через простое вытаскивание правил из дерева не получилось счастья?
Вполне хороший метод оказался, если не считать, что нет определенности по дальнейшей жизни правил с их последующей реинкарнацией. На длительных интервалах более 50% отобранных правил показывали позитивные результаты работы.
Я использовал генетическое дерево - это очень медленно, если выборка содержит множество предикторов.
Поэтому я решил искать возможность уменьшения объема информации, подаваемый дереву для обучения. Стал искать пути выделения потенциально полезных данных.
Другая проблема - большая похожесть листьев/правил по точкам активации. Да и с ростом базы листьев уникальность тяжело было найти.
В итоге конструкция интересная, есть что улучшать, но крайне медленная в моём случае оказалась. В общем не пригодной для экспериментов, но интересной для внедрения, если готова вся концепция устройства построения ТС.
Ну и конечно - я не знаю R, поспрашивал местных гуру, и толком никто не смог помочь решить мои задачи.
Сейчас бы добавил семплирование и принудительный отбор корневого предиктора (по списку) и блокировку уже использованного.
Вполне хороший метод оказался, если не считать, что нет определенности по дальнейшей жизни правил с их последующей реинкарнацией. На длительных интервалах более 50% отобранных правил показывали позитивные результаты работы.
Я использовал генетическое дерево - это очень медленно, если выборка содержит множество предикторов.
Поэтому я решил искать возможность уменьшения объема информации, подаваемый дереву для обучения. Стал искать пути выделения потенциально полезных данных.
Другая проблема - большая похожесть листьев/правил по точкам активации. Да и с ростом базы листьев уникальность тяжело было найти.
В итоге конструкция интересная, есть что улучшать, но крайне медленная в моём случае оказалась. В общем не пригодной для экспериментов, но интересной для внедрения, если готова вся концепция устройства построения ТС.
Ну и конечно - я не знаю R, поспрашивал местных гуру, и толком никто не смог помочь решить мои задачи.
Сейчас бы добавил семплирование и принудительный отбор корневого предиктора (по списку) и блокировку уже использованного.
а при чем тут катбуст? зачем он вам, оттуда тоже правила вытаскиваются?
почему не взять простое дерево и идти от корня к верхушкам по правилам, давая меньший вес сложным правилам (штраф за сложность правила)
каждое правило прогнать в тестере на новых данных, предварительно выбросив те, что с большой ошибкой
ЗЫ, мне все равно не нравится такой подход интуитивно, пока не понял почемуНу и конечно - я не знаю R,
Я уже это слышу больше года..
R можно выучить за неделю
а при чем тут катбуст? зачем он вам, оттуда тоже правила вытаскиваются?
CatBoost - большая скорость проверки верности направления идей в первую очередь.
Правила могу вытаскивать из первого дерева, но они, конечно, получаются значительно слабей в среднем (бывают хорошие, но очень редко), поэтому оставил эту затею пока. Сейчас там есть альтернативный способ построения деревьев, возможно там правила сильней, но нет возможности работать на MQL5 с такой моделью без питона.
И вообще, у меня есть свои идеи, как строить модель, медленно создающуюся, но с теми же сразу проверками по которым отбирались листья. Может когда то дойду до её реализации в коде.
почему не взять простое дерево и идти от корня к верхушкам по правилам, давая меньший вес сложным правилам (штраф за сложность правила)
каждое правило прогнать в тестере на новых данных, предварительно выбросив те, что с большой ошибкой
ЗЫ, мне все равно не нравится такой подход интуитивно, пока не понял почемуРазница по сути только в объемах данных и нагрузки на процессор при применении модели.
Ну и плюс, листья легче ансамблировать, собирая в группы и раздавая веса (я назвал это гербарием :) ).
Используется же много деревьев для создания правил, а значит сигналы пересекаются, чего нет просто в одном дереве.