Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3431

 
Aleksey Vyazmikin #:

в моём случае, конечно, речь в большей степени о стандартизации, если о классических понятиях речь. Но, по сути цель всего этого - сделать сопоставимыми данные.

В чистом виде нормализация ничего не дают - меняет только шкалу счисления.

благодаря чему данные становятся сопоставимыми 

 
Maxim Dmitrievsky #:

благодаря чему данные становятся сопоставимыми 

Нормализация загоняет в одну шкалу все предиктора, а стандартизация делает сопоставимыми показатели одного предиктора при разных внешних условиях. Или у Вас другая нормализация? Если нет, то что даст сопоставимость разных предикторов для деревянных моделей?

 
Aleksey Vyazmikin #:

Нормализация загоняет в одну шкалу все предиктора, а стандартизация делает сопоставимыми показатели одного предиктора при разных внешних условиях. Или у Вас другая нормализация? Если нет, то что даст сопоставимость разных предикторов для деревянных моделей?

В признаковом пространстве точки становятся более сопоставимыми в обоих случаях.

Только прикол в том, что делая их более сопоставимыми на is, делают их менее сопоставимыми на oos, на нестационарных рядах.

То есть везде нас как бы поджидает засада.

* пишу в контексте мультивалютника, где данные из разных источников
 
Maxim Dmitrievsky #:

В признаковом пространстве точки становятся более сопоставимыми в обоих случаях.

Только прикол в том, что делая их более сопоставимыми на is, делают их менее сопоставимыми на oos, на нестационарных рядах.

То есть везде нас как бы поджидает засада.

Я не понимаю затеи - для сетей или кластеризации это полезно может быть, а для деревьев то где польза - алгоритму это не нужно.

К тому же, если используете CatBoost, то он уже делает фактически нормализацию через квантование, оставляя одинаковое число и диапазон значений предикторов. Можете сделать квантование и сохранить выборку с номерами квантовых отрезков, тогда и на новых данных будет нормальной такая нормализация.

 
Aleksey Vyazmikin #:

Я не понимаю затеи - для сетей или кластеризации это полезно может быть, а для деревьев то где польза - алгоритму это не нужно.

К тому же, если используете CatBoost, то он уже делает фактически нормализацию через квантование, оставляя одинаковое число и диапазон значений предикторов. Можете сделать квантование и сохранить выборку с номерами квантовых отрезков, тогда и на новых данных будет нормальной такая нормализация.

Maxim Dmitrievsky #:
* пишу в контексте мультивалютника, где данные из разных источников
И меня не обязательно понимать, меня нужно просто любить :)
 
Maxim Dmitrievsky #:
И меня не обязательно понимать, меня нужно просто любить :)

Ну, тогда не буду обсуждать Ваши затеи - я потрачу время, а выхлопа для себя не получу - так выходит.

 
Aleksey Vyazmikin #:

Ну, тогда не буду обсуждать Ваши затеи - я потрачу время, а выхлопа для себя не получу - так выходит.

это цитата

 

Все, сейчас фракталы буду добавлять.. готовы? 😈


 
Maxim Dmitrievsky #:

Все, сейчас фракталы буду добавлять.. готовы? 😈

Что на графике?

 
fxsaber #:

Что на графике?

балансы после обучения

Причина обращения: