Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3376

 
fxsaber #:

Теоретический вопрос.

Есть ТС, которая великолепно подгоняется. При этом точно известно, что определенный набор входных параметров прибыльно эксплуатирует реальную закономерность. Т.е. этот набор не является подгонкой.

Возможно ли найти этот набор?

Не является подгонкой к чему и на какое время? Стесняюсь спросить :) здесь наверное важнее доказать, что это не подгонка ни подо что. 

В другой теме уже показывал таблицу, что уровень уверенности после переоптимизации - самый низкий из всех возможных доказательных инструментов.
 
Maxim Dmitrievsky #:
Не является подгонкой к чему и на какое время? Стесняюсь спросить :) здесь наверное важнее доказать, что это не подгонка ни подо что. 

В другой теме уже показывал таблицу, что уровень уверенности после переоптимизации - самый низкий из всех возможных доказательных инструментов.

Характер кривой прибыли не меняется на OOS: Size(OOS_Left) = Size(OOS_Right) = Size(Sample). В общем, результат, мимо которого не пройти.

 
fxsaber #:

Теоретический вопрос.

Есть ТС, которая великолепно подгоняется. При этом точно известно, что определенный набор входных параметров прибыльно эксплуатирует реальную закономерность. Т.е. этот набор не является подгонкой.

Возможно ли найти этот набор?

если убрать пункт "ТС, которая великолепно подгоняется", то можно существенно сузить область. И про искомую закономерность тоже должно быть много чего известно сразу.

Нельзя взять произвольную кучку индикаторов, убрать очевидно зависимые, оттуда получить "подгоняемую ТС" и в этом всём выделить эксплуатацию реальной закономерности

Хороший вопрос это половина ответа - В реальном мире, где применяются алг.оптимизации и МL, обычно известно что конкретно ищется (тьма характеристик) и надо выделять признаки, очерчивать пределы. А тут никто не знает что хочет найти, но умеет запускать оптимизатор :-) 

 
fxsaber #:

Характер кривой прибыли не меняется на OOS: Size(OOS_Left) = Size(OOS_Right) = Size(Sample). В общем, результат, мимо которого не пройти.

Ну через переоптимизацию с проверкой на OOS  можно найти :) что является самым простым случаем волк форварда Или кросс-валидации с одним фолдом.
 
Maxim Dmitrievsky #:
Ну через переоптимизацию с проверкой на OOS  можно найти :)

Просьба раскрыть в несколько предложений.

 
fxsaber #:

Просьба раскрыть в несколько предложений.

Вроде все знают про волк-форвард. Когда оптимизируется на sample, результаты снимаются с oos. Берется лучший общий результат с усредненными параметрами, чтобы кривые не отличались.
 
Это не докажет, что не подгонка. Это даст наиболее робастные параметры. То, что это глобально не подгонка, доказать вообще нельзя. И тем более ни через какие глобальные минимумы.
 
Maxim Dmitrievsky #:
Вроде все знают про волк-форвард. Когда оптимизируется на sample, результаты снимаются с oos. Берется лучший общий результат с усредненными параметрами, чтобы кривые не отличались.

Допустим, сделано 100 шагов - получили 100 наборов входных. Если сформировать средний набор по принципу "каждый входной равен среднему из соответствующих входных 100 наборов", то вряд ли этот набор будет проходить хорошо весь исходный интервал.

 
fxsaber #:

Допустим, сделано 100 шагов - получили 100 наборов входных. Если сформировать средний набор по принципу "каждый входной равен среднему из соответствующих входных 100 наборов", то вряд ли этот набор будет проходить хорошо весь исходный интервал.

Если не будет, то нет хороших наборов вообще, по логике. В плане уверенности в завтрашнем дне.

Это же великий и беспощадный матстат.
 
Maxim Dmitrievsky #:
Если не будет, то нет хороших наборов вообще, по логике.

Нелогично! Наборы зависят от ФФ, например.

Причина обращения: