Есть ли закономерность в хаосе? Попробуем поискать! Машинное обучение на примере конкретной выборки. - страница 12
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Вы эти модели отбираете по лучшей на тесте?
Или среди множества лучших на тесте - лучший и на экзамене?
Конкретно там была отборка просто по лучшим на экзамене.
Конкретно там была отборка просто по лучшим на экзамене.
Я тоже показывал лучшую на экзамене. Перед запуском в реальную торговлю, экзамена не будет. Точнее он будет за реальные деньги...
Сейчас сделал отбор признаков валкинг форвардом (10000 через 5000 и один трейн как у вас и один тест), на экзамене оба сливают.
Надо как-то на тесте делать отбор, чтобы обучаемость сохранялась и на экзамене.
Я тоже показывал лучшую на экзамене. Перед запуском в реальную торговлю, экзамена не будет. Точнее он будет за реальные деньги...
Сейчас сделал отбор признаков валкинг форвардом (10000 через 5000 и один трейн как у вас и один тест), на экзамене оба сливают.
Надо как-то на тесте делать отбор, чтобы обучаемость сохранялась и на экзамене.
В настоящий момент можно только увеличить вероятность правильного отбора, к сожалению. Поэтому и рассматриваю пакетный вариант торговли, когда отбирается сразу много моделей в надежде, что средняя точность будет достаточная и удастся получить среднюю прибыль.
Надо из сотен тысяч ваших признаков найти рабочие, и обязательно потом понять почему они работают. И затем пилить разные ТС на них уже не брутфорся, а подбирая оптимальные гиперпараметры.
Надо из сотен тысяч ваших признаков найти рабочие, и обязательно потом понять почему они работают. И затем пилить разные ТС на них уже не брутфорся, а подбирая оптимальные гиперпараметры.
В том то и дело, что задача понимания причины эффективности предиктора крайне сложна, и лежит в области интерпретации поведения рынка, или у Вас есть более надёжный подход? К тому же, предикторы работают в группе, так как являются примитивами, а как вытащить вместе рабочие в группе предикторы - не простой вопрос, если это бустинг - пока очевидным является применение дерева решений. А для построения эффективных деревьев решений, нужно существенно уменьшать выборку, а лучше уже подавать только те предикторы, которые предположительно образуют эффективную связь. И тут как раз метод перебора моделей может быть весьма полезен, так как модель использует, как правило, только часть предикторов.
Подгонка или не подгонка - я думаю, что все действия с подстраиванием под вероятность - подгонка. Другое дело, что история распределения этих вероятностей по предикторам может повторятся, а может быть на длительный срок предана забвению. И тут важно иметь какой либо метод, позволяющий определять переход этих стадий.
Обучение, что называется из коробки с помощью CatBoost, с настройками ниже - с перебором Seed дает такое распределение вероятности.
1. Выборка train
2. Выборка test
3. Выборка exam
Как видно, модель предпочитает все практически классифицировать нулём - так меньше шансов ошибиться.
Алексей, обучение - это же и есть по сути подгонка?
Алексей, обучение - это же и есть по сути подгонка?
По сути - да.
Оптимизация в тестере - изменение показателей по которым работает алгоритм, а обучение в методах МО (деревья и их разновидности, НС) - изменение алгоритма за счет оценки и интерпретации истории показателей.
Симбиоз, был бы эпичен...
Алексей, обучение - это же и есть по сути подгонка?
Обучение школьников тоже подгонка их знаний под существующие)
В том то и дело, что задача понимания причины эффективности предиктора крайне сложна, и лежит в области интерпретации поведения рынка, или у Вас есть более надёжный подход? К тому же, предикторы работают в группе, так как являются примитивами, а как вытащить вместе рабочие в группе предикторы - не простой вопрос, если это бустинг - пока очевидным является применение дерева решений. А для построения эффективных деревьев решений, нужно существенно уменьшать выборку, а лучше уже подавать только те предикторы, которые предположительно образуют эффективную связь. И тут как раз метод перебора моделей может быть весьма полезен, так как модель использует, как правило, только часть предикторов.
Подгонка или не подгонка - я думаю, что все действия с подстраиванием под вероятность - подгонка. Другое дело, что история распределения этих вероятностей по предикторам может повторятся, а может быть на длительный срок предана забвению. И тут важно иметь какой либо метод, позволяющий определять переход этих стадий.
небольшими группами по 5-10 штук обучать
лучше по 1-3
если никакой из них не дает ничего, какой смысл говорить о мифической связи между ними? мусор + мусор..