Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3376
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Теоретический вопрос.
Есть ТС, которая великолепно подгоняется. При этом точно известно, что определенный набор входных параметров прибыльно эксплуатирует реальную закономерность. Т.е. этот набор не является подгонкой.
Возможно ли найти этот набор?
Не является подгонкой к чему и на какое время? Стесняюсь спросить :) здесь наверное важнее доказать, что это не подгонка ни подо что.
Характер кривой прибыли не меняется на OOS: Size(OOS_Left) = Size(OOS_Right) = Size(Sample). В общем, результат, мимо которого не пройти.
Теоретический вопрос.
Есть ТС, которая великолепно подгоняется. При этом точно известно, что определенный набор входных параметров прибыльно эксплуатирует реальную закономерность. Т.е. этот набор не является подгонкой.
Возможно ли найти этот набор?
если убрать пункт "ТС, которая великолепно подгоняется", то можно существенно сузить область. И про искомую закономерность тоже должно быть много чего известно сразу.
Нельзя взять произвольную кучку индикаторов, убрать очевидно зависимые, оттуда получить "подгоняемую ТС" и в этом всём выделить эксплуатацию реальной закономерности
Хороший вопрос это половина ответа - В реальном мире, где применяются алг.оптимизации и МL, обычно известно что конкретно ищется (тьма характеристик) и надо выделять признаки, очерчивать пределы. А тут никто не знает что хочет найти, но умеет запускать оптимизатор :-)
Характер кривой прибыли не меняется на OOS: Size(OOS_Left) = Size(OOS_Right) = Size(Sample). В общем, результат, мимо которого не пройти.
Ну через переоптимизацию с проверкой на OOS можно найти :)
Просьба раскрыть в несколько предложений.
Просьба раскрыть в несколько предложений.
Вроде все знают про волк-форвард. Когда оптимизируется на sample, результаты снимаются с oos. Берется лучший общий результат с усредненными параметрами, чтобы кривые не отличались.
Допустим, сделано 100 шагов - получили 100 наборов входных. Если сформировать средний набор по принципу "каждый входной равен среднему из соответствующих входных 100 наборов", то вряд ли этот набор будет проходить хорошо весь исходный интервал.
Допустим, сделано 100 шагов - получили 100 наборов входных. Если сформировать средний набор по принципу "каждый входной равен среднему из соответствующих входных 100 наборов", то вряд ли этот набор будет проходить хорошо весь исходный интервал.
Если не будет, то нет хороших наборов вообще, по логике.
Нелогично! Наборы зависят от ФФ, например.