Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2406
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Справочка по метрикам, сам не знаю некоторые https://russianblogs.com/article/7586220986/
Если признаки равномерно распределены в единичном кубе, то наиболее правильной метрикой интуитивно кажется Чебышовская. Другое дело, что вряд ли получится так хорошо нормализовать произвольные признаки.
Если признаки равномерно распределены в единичном кубе, то наиболее правильной метрикой интуитивно кажется Чебышовская. Другое дело, что вряд ли получится так хорошо нормализовать произвольные признаки.
Экспериментировал с нормализацией, получаются приличные потери в моделях, без неё лучше. Поэтому леса деревьев, а не нейросети.
Экспериментировал с нормализацией, получаются приличные потери в моделях, без неё лучше. Поэтому леса деревьев, а не нейросети.
Тоже склоняюсь (также благодаря и вашим трудам) к чему-нибудь вроде xgboost. Но нормализация, как и вообще подготовительная исследовательская работа с признаками, никогда не помешает. Ещё нужен гибкий подход к построению кастомной целевой функции (objective function).
Поэтому леса деревьев, а не нейросети.
Да, еще несколько лет назад кто-то в этой ветке писал такую мысль - предлагал леса и сравнивал нейросети с ядерным оружием. Говорил, что их применять надо только тогда, когда другие методы вообще ничего дать не могут. Но какой то Максим его тогда какашками закидал.
Интересно... Так он был прав?
Тоже склоняюсь (также благодаря и вашим трудам) к чему-нибудь вроде xgboost. Но нормализация, как и вообще подготовительная исследовательская работа с признаками, никогда не помешает. Ещё нужен гибкий подход к построению кастомной целевой функции (objective function).
рекомендуют LightGBM или CatBoost, XGBoost отстает
по сути получается, что любой препроцессинг убивает альфу. Это если брать приращения и начинать их высушивать. Идеальнее всего было бы брать исходный ряд (котировки), но не получится обучать из-за его нестационарности. Это хорошо видно в статье про дробное дифференцирование (грокаем память рынка). Чем больше применяется преобразований, тем меньше там чего-то остается.
Да, еще несколько лет назад кто-то в этой ветке писал такую мысль - предлагал леса и сравнивал нейросети с ядерным оружием. Говорил, что их применять надо только тогда, когда другие методы вообще ничего дать не могут. Но какой то Максим его тогда какашками закидал.
Интересно... Так он был прав?
лучше приводить какие-то пруфы, вообще не в курсе о чем речь
Аналогичные выводы - только деревья. Особенно весело, когда максимум обновляется и всё смещается. Можно конечно максимумы вручную или автоматически ставить (для каждой фичи), но это костыли.
Да, как ни крути получается ерунда
Обсуждать модельки какая лучше это вообще детский сад, я такой фигней лет 7 назад страдал
как генерировать новые информативные признаки - ДА
как создавать фитнесс функции объективные рынку - ДА
как преобразововать входящую информацию - ДА
как строить адаптивные к рынку функции - ДА
но обсуждать что лучше НС или форест на тех же пустых данных это просто ФЕЙС ПАЛМ...
разница в ошибке между всем десятком разных МО алгоритмов 0,5 - 2 %
2% Карл!!! нужно обсуждать то что дает разрыв в 20-30%
Если признаки информативны, то любой АМО будет работать хорошо , верно и обратное!!!
Это слова человека, который ничего не понимает в том, что он обсуждал в этой ветке ГОДАМИ.
"Разница в ошибке" на форвард-тесте между обычной тупой линейной регрессией и НС может составлять БОЛЬШЕ, чем 20-30% и не в пользу сети.
И это легко проверить и продемонстрировать.
Потому то сети - это обычная подгонка
Это слова человека, который ничего не понимает в том, что он обсуждал в этой ветке ГОДАМИ.
"Разница в ошибке" на форвард-тесте между обычной тупой линейной регрессией и НС может составлять БОЛЬШЕ, чем 20-30%.
И это легко проверить и продемонстрировать.