Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2106

 
mytarmailS:

Я удалил, думал не интересно никому, могу вам скинуть код, только нужно его в читабельный вид перевести

Кстати столкнулся с нестабильностью метода отжига, даже не знаю как с ним работать, очень нестабильные результаты, сильно прыгают параметры...


дошел до такого 

сначала иницыализирую рандомно стартовую точку, 

потом когда какое то решение найдено я его сохраняю 

потом опять запускаю отжиг но с стартовыми параметрами уже от найденного решения  и так несколько раз..

Сбросьте в личку.

Отжиг нестабилен. Применяйте rgenout. Проверен, надежен.

В моделях применяется функция потерь. Напишите свою и если модель позволяет вставить свою ф-ю потерь, пробуйте.

 
mytarmailS:

просто делаю прогноз полученой модели на 500 точек вперед

но торговать думаю только первые 1-2 сделки

и нужно научиться качественно находить параметры

 
Maxim Dmitrievsky:

можно 2 разнонаправленные модели юзать

Пробовал учить отдельно по своей базовой стратегии - результаты были хуже, думаю, что за счет разбалансировки выборки - слишком много нулей получается и на них идет обучение.

Хочу попробовать другой вариант - отдельной моделью учить направление. Получится, что первая модель обучается на волатильность, а вторая на её вектор. Но опять же - выборка нужна большая.

 
Aleksey Vyazmikin:

Пробовал учить отдельно по своей базовой стратегии - результаты были хуже, думаю, что за счет разбалансировки выборки - слишком много нулей получается и на них идет обучение.

Хочу попробовать другой вариант - отдельной моделью учить направление. Получится, что первая модель обучается на волатильность, а вторая на её вектор. Но опять же - выборка нужна большая.

Для несбалансированных классов можно использовать оверсемплинг. Я вертел и 2 и 3 модели, разницы никакой по сути 
 
Maxim Dmitrievsky:
Для несбалансированных классов можно использовать оверсемплинг. Я вертел и 2 и 3 модели, разницы никакой по сути 

Т.е. дублировать строки с целевой "1"? Пробовал - у меня результат вообще почти не менялся на CatBoost. Возможно, нужно добавлять немного шума.

 
Aleksey Vyazmikin:

Т.е. дублировать строки с целевой "1"? Пробовал - у меня результат вообще почти не менялся на CatBoost. Возможно, нужно добавлять немного шума.

Не дублировать. Оверсемплинг в гугле, например SMOTE. У меня тоже не учится при большом дисбалансе. После овера все гуд
 
Aleksey Vyazmikin:

Т.е. дублировать строки с целевой "1"? Пробовал - у меня результат вообще почти не менялся на CatBoost. Возможно, нужно добавлять немного шума.

Так и должно быть. Балансировка по классам НС нужна. Деревья и так справятся.
 
Maxim Dmitrievsky:
Не дублировать. Оверсемплинг в гугле, например SMOTE. У меня тоже не учится при большом дисбалансе. После овера все гуд

Ну да, по сути добавление шума в показатели предикторов. Это может повлиять на границы квантования, усилив выделение участков с единицами, но по идеи такой же эффект должен быть и при добавлении дубликатов, единственно, что предполагаю, что дубликаты режутся алгоритмом CatBoost перед началом обучения (надо проеврить), тогда да - вариант.

 
elibrarius:
Так и должно быть. Балансировка по классам НС нужна. Деревья и так справятся.

Ну не всегда справляются - писал уже ранее.

 

Похоже спалил в своей статье прибыльный советник (подход к обучению):

На графике финансовый результат модели по итогу каждого месяца, если первую модель обучить на 12 месяцах и потом добавлять к ней историю каждого нового месяца - склейка фьючерсного Si контракта на USDRUB_TOM.

Причина обращения: