Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2406

 
Maxim Dmitrievsky:
Справочка по метрикам, сам не знаю некоторые https://russianblogs.com/article/7586220986/

Если признаки равномерно распределены в единичном кубе, то наиболее правильной метрикой интуитивно кажется Чебышовская. Другое дело, что вряд ли получится так хорошо нормализовать произвольные признаки.

 
Aleksey Nikolayev:

Если признаки равномерно распределены в единичном кубе, то наиболее правильной метрикой интуитивно кажется Чебышовская. Другое дело, что вряд ли получится так хорошо нормализовать произвольные признаки.

Экспериментировал с нормализацией, получаются приличные потери в моделях, без неё лучше. Поэтому леса деревьев, а не нейросети.
 
Maxim Dmitrievsky:
Экспериментировал с нормализацией, получаются приличные потери в моделях, без неё лучше. Поэтому леса деревьев, а не нейросети.
Аналогичные выводы - только деревья. Особенно весело, когда максимум обновляется и всё смещается. Можно конечно максимумы вручную или автоматически ставить (для каждой фичи), но это костыли.
 
Maxim Dmitrievsky:
Экспериментировал с нормализацией, получаются приличные потери в моделях, без неё лучше. Поэтому леса деревьев, а не нейросети.

Тоже склоняюсь (также благодаря и вашим трудам) к чему-нибудь вроде xgboost. Но нормализация, как и вообще подготовительная исследовательская работа с признаками, никогда не помешает. Ещё нужен гибкий подход к построению кастомной целевой функции (objective function).

 
Maxim Dmitrievsky:
Поэтому леса деревьев, а не нейросети.

Да, еще несколько лет назад кто-то в этой ветке писал такую мысль - предлагал леса и сравнивал нейросети с ядерным оружием. Говорил, что их применять надо только тогда, когда другие методы вообще ничего дать не могут. Но какой то Максим его тогда какашками закидал.

Интересно... Так он был прав?

 
Aleksey Nikolayev:

Тоже склоняюсь (также благодаря и вашим трудам) к чему-нибудь вроде xgboost. Но нормализация, как и вообще подготовительная исследовательская работа с признаками, никогда не помешает. Ещё нужен гибкий подход к построению кастомной целевой функции (objective function).

рекомендуют LightGBM или CatBoost, XGBoost отстает

по сути получается, что любой препроцессинг убивает альфу. Это если брать приращения и начинать их высушивать. Идеальнее всего было бы брать исходный ряд (котировки), но не получится обучать из-за его нестационарности. Это хорошо видно в статье про дробное дифференцирование (грокаем память рынка). Чем больше применяется преобразований, тем меньше там чего-то остается.

 
Dmytryi Nazarchuk:

Да, еще несколько лет назад кто-то в этой ветке писал такую мысль - предлагал леса и сравнивал нейросети с ядерным оружием. Говорил, что их применять надо только тогда, когда другие методы вообще ничего дать не могут. Но какой то Максим его тогда какашками закидал.

Интересно... Так он был прав?

лучше приводить какие-то пруфы, вообще не в курсе о чем речь

 
elibrarius:
Аналогичные выводы - только деревья. Особенно весело, когда максимум обновляется и всё смещается. Можно конечно максимумы вручную или автоматически ставить (для каждой фичи), но это костыли.

Да, как ни крути получается ерунда

 
mytarmailS:

Обсуждать модельки какая лучше это вообще детский сад, я такой фигней лет 7 назад страдал


как генерировать новые информативные признаки - ДА

как создавать фитнесс функции объективные рынку - ДА

как преобразововать входящую информацию - ДА

как строить адаптивные к рынку функции - ДА

но обсуждать что лучше НС или форест на тех же пустых данных  это просто ФЕЙС ПАЛМ...

разница в ошибке  между всем десятком разных МО алгоритмов  0,5 - 2 %

2% Карл!!!  нужно обсуждать то что дает разрыв в 20-30%

Если признаки информативны, то любой АМО будет работать хорошо , верно и обратное!!!

Это слова человека, который ничего не понимает в том, что он обсуждал в этой ветке ГОДАМИ.

"Разница в ошибке" на форвард-тесте между обычной тупой линейной регрессией и НС может составлять БОЛЬШЕ, чем 20-30% и не в пользу сети.

И это легко проверить и продемонстрировать.

Потому то сети - это обычная подгонка

 
Dmytryi Nazarchuk:

Это слова человека, который ничего не понимает в том, что он обсуждал в этой ветке ГОДАМИ.

"Разница в ошибке" на форвард-тесте между обычной тупой линейной регрессией и НС может составлять БОЛЬШЕ, чем 20-30%.

И это легко проверить и продемонстрировать.

Демострируй
Причина обращения: