Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3430

 

Мультивалютнег готов, пока что такой кривой сойдет

остается самое вкусное


 
Maxim Dmitrievsky #:

Мультивалютнег готов, пока что такой кривой сойдет

остается самое вкусное


Это обучение сразу на разных выборках символов?

 
Aleksey Vyazmikin #:

Это обучение сразу на разных выборках символов?

несколько символов сразу в одном датасете

Наверное, как раз здесь нужна нормализация фичей, как бы я ее не презирал 
 
secret #:
У вас читерские котировки. Заниженный спред, проще говоря.

В моем вопросе ничего не было сказано про источник данных и торговую систему.

Там числовой ряд и оптимизация ФФ.

 

По сабжу, чтобы получить вдохновение и мотивацию и предвкусить успешный успех

https://www.ruder.io/multi-task/

An Overview of Multi-Task Learning for Deep Learning
An Overview of Multi-Task Learning for Deep Learning
  • 2017.05.29
  • www.ruder.io
Note: If you are looking for a review paper, this blog post is also available as an article on arXiv. Table of contents: Introduction In Machine Learning (ML), we typically care about optimizing for a particular metric, whether this is a score on a certain benchmark or a business KPI. In order to do this, we generally train a single model or an...
 
Maxim Dmitrievsky #:

несколько символов сразу в одном датасете

Наверное, как раз здесь нужна нормализация фичей, как бы я ее не презирал 

Я немного ходил в эту сторону, но я отбирал листья по выборке по одному инстурменту и смотрел их эффективность на другом, к сожалению эффективных оставалось процентов 5% от всех изначально отобранных -- на независимых выборках для двух инструментов, может чуть больше, помню, что мало. И, у меня есть нормализация, там где это требуется, т.е. информация от предикторов не в пунктах подаётся.

В планах у меня делать перебор разных вариантов нормализации - но с моими темпами - будет не скоро.

 
Aleksey Vyazmikin #:

Я немного ходил в эту сторону, но я отбирал листья по выборке по одному инстурменту и смотрел их эффективность на другом, к сожалению эффективных оставалось процентов 5% от всех изначально отобранных -- на независимых выборках для двух инструментов, может чуть больше, помню, что мало. И, у меня есть нормализация, там где это требуется, т.е. информация от предикторов не в пунктах подаётся.

В планах у меня делать перебор разных вариантов нормализации - но с моими темпами - будет не скоро.

ну здесь она нужна только для того, чтобы сделать наборы признаков сопоставимыми. Иначе НС/бустинг запомнят примеры для каждой пары и обобщения не произойдет.

По идее, чем больше символов загнать - тем лучше. С точки зрения генерализации.
 
Maxim Dmitrievsky #:

ну здесь она нужна только для того, чтобы сделать наборы признаков сопоставимыми. Иначе НС/бустинг запомнят примеры для каждой пары и обобщения не произойдет.

Нормализация у меня решает вопрос сопоставимости одинаковых паттернов вне зависимости от рыночной волотильности.

 
Aleksey Vyazmikin #:

Нормализация у меня решает вопрос сопоставимости одинаковых паттернов вне зависимости от рыночной волотильности.

Не путаете со стандартизацией?

 
Maxim Dmitrievsky #:

Не путаете со стандартизацией?

в моём случае, конечно, речь в большей степени о стандартизации, если о классических понятиях речь. Но, по сути цель всего этого - сделать сопоставимыми данные.

В чистом виде нормализация ничего не дают - меняет только шкалу счисления.

Причина обращения: