Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3431
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
в моём случае, конечно, речь в большей степени о стандартизации, если о классических понятиях речь. Но, по сути цель всего этого - сделать сопоставимыми данные.
В чистом виде нормализация ничего не дают - меняет только шкалу счисления.
благодаря чему данные становятся сопоставимыми
благодаря чему данные становятся сопоставимыми
Нормализация загоняет в одну шкалу все предиктора, а стандартизация делает сопоставимыми показатели одного предиктора при разных внешних условиях. Или у Вас другая нормализация? Если нет, то что даст сопоставимость разных предикторов для деревянных моделей?
Нормализация загоняет в одну шкалу все предиктора, а стандартизация делает сопоставимыми показатели одного предиктора при разных внешних условиях. Или у Вас другая нормализация? Если нет, то что даст сопоставимость разных предикторов для деревянных моделей?
В признаковом пространстве точки становятся более сопоставимыми в обоих случаях.
Только прикол в том, что делая их более сопоставимыми на is, делают их менее сопоставимыми на oos, на нестационарных рядах.
То есть везде нас как бы поджидает засада.
* пишу в контексте мультивалютника, где данные из разных источниковВ признаковом пространстве точки становятся более сопоставимыми в обоих случаях.
Только прикол в том, что делая их более сопоставимыми на is, делают их менее сопоставимыми на oos, на нестационарных рядах.
То есть везде нас как бы поджидает засада.
Я не понимаю затеи - для сетей или кластеризации это полезно может быть, а для деревьев то где польза - алгоритму это не нужно.
К тому же, если используете CatBoost, то он уже делает фактически нормализацию через квантование, оставляя одинаковое число и диапазон значений предикторов. Можете сделать квантование и сохранить выборку с номерами квантовых отрезков, тогда и на новых данных будет нормальной такая нормализация.
Я не понимаю затеи - для сетей или кластеризации это полезно может быть, а для деревьев то где польза - алгоритму это не нужно.
К тому же, если используете CatBoost, то он уже делает фактически нормализацию через квантование, оставляя одинаковое число и диапазон значений предикторов. Можете сделать квантование и сохранить выборку с номерами квантовых отрезков, тогда и на новых данных будет нормальной такая нормализация.
* пишу в контексте мультивалютника, где данные из разных источников
И меня не обязательно понимать, меня нужно просто любить :)
Ну, тогда не буду обсуждать Ваши затеи - я потрачу время, а выхлопа для себя не получу - так выходит.
Ну, тогда не буду обсуждать Ваши затеи - я потрачу время, а выхлопа для себя не получу - так выходит.
это цитата
Все, сейчас фракталы буду добавлять.. готовы? 😈
Все, сейчас фракталы буду добавлять.. готовы? 😈
Что на графике?
Что на графике?
балансы после обучения