Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2591

 
СанСаныч Фоменко #:

Все смешано в кучу.

Какие параметры модели обсуждаем?

Если модель - это что-то из МО, то это одно, если модель - это советник в тестере, то это совершенно другое.

Модели, которые оптимизируются в тестере - это обычно не о чем. Например, берем машку и начинаем подбирать период, получаем некий набор результатов. Если таких "машек" со своими параметрами много, то получаем НЕ гладкие поверхности в результате, выбираем случайные пики, которые случайно могут совпасть в будущем. Почему? Для меня ответ очевиден: параметры этих "машек" НЕ имеют отношения к результативности модели, это просто шум.


Другое дело, если параметрами модели в МО является набор предикторов, то проблему можно поставить содержательно: имеет/не имеет предиктор отношение к РЕЗУЛЬТАТУ моделирования или нет. Если имеет, то какое.   Аналогичная ситуация, если мы выбираем модели: RF,  нейронка или еще что-то .....

Действительно, всё в кучу. Параметры - это параметры, предикторы - это предикторы. В вашем примере с машками: параметры - это их периоды, а предикторы - значения этих машек. Для одной-двух машек построить искомую поверхность несложно, а для сотен - смысл уже теряется полностью из-за роста размерностей пространств предикторов и параметров.

Не вижу принципиальной разницы между моделями в тестере и в пакетах МО - разница только техническая (возможности используемого ПО).

 
Aleksey Nikolayev #:

Действительно, всё в кучу. Параметры - это параметры, предикторы - это предикторы. В вашем примере с машками: параметры - это их периоды, а предикторы - значения этих машек. Для одной-двух машек построить искомую поверхность несложно, а для сотен - смысл уже теряется полностью из-за роста размерностей пространств предикторов и параметров.

Не вижу принципиальной разницы между моделями в тестере и в пакетах МО - разница только техническая (возможности используемого ПО).

не люблю встревать, но просто замечание про сотни-другие MA ..там существует предельная величина их разумного количества и она не более 1.386*ln(N) (где N-вся наблюдаемая история)

 
Анализ оптимизационной поверхности это тоже палка о двух концах. И выход на плато ничего не гарантирует, хоть и вселяет временное воодушевление, до момента осознания что пора идти на завод. Тем более что алгоритмы оптимизации/обучения заточены на выбивание из локальных экстремумов в какой-то степени, то есть заточены на поиск глобальных.
 
Maxim Dmitrievsky #:
Анализ оптимизационной поверхности это тоже палка о двух концах. И выход на плато ничего не гарантирует, хоть и вселяет временное воодушевление, до момента осознания что пора идти на завод
Божественная критика
 
mytarmailS #:
Божественная критика
Старался :)
 
Maxim Dmitrievsky #:
Старался :)
Ещё бы понимал разницу между "плато" и глобальным минимумом 
 
mytarmailS #:
Ещё бы понимал разницу между "плато" и глобальным минимумом 
Смотря что ищешь. Подразумевается плато на глобальном, как идеал и мечта
 
Никто не спорит с тем, что робастность это хорошо. Проблема в том, что нет простых и абсолютных способов её достижения.
 
Maxim Kuznetsov #:

не люблю встревать, но просто замечание про сотни-другие MA ..там существует предельная величина их разумного количества и она не более 1.386*ln(N) (где N-вся наблюдаемая история)

Не согласен, любите)

А почему не 1.387?)

 
Replikant_mih #:

Если модели подать на вход и период средней и значение средней - ей будет параллельно что ты называешь предиктором, а что параметром)).

Период средней неизменен в каждой строке - получим неинформативный столбец. Он не нужен. Удаляем для скорости расчетов.
Причина обращения: