Обсуждение статьи "Разработка робота на Python и MQL5 (Часть 1): Препроцессинг данных" - страница 3

 
Maxim Dmitrievsky #:

Тогда цена должна быть псевдостационарной. Это не соблюдается на трендовых рынках.

Хорошо, будем прогнозировать приращения. Тогда возьмем приращения приращений. Они псевдостационарны?

Однако, если мы научились прогнозировать приращения, обозначает ли это, что мы научились прогнозировать их производную - цену?

 
fxsaber #:

Я ноль в МО, поэтому опираюсь на статью.

Если правильно понял, то автомат - это более широкое поле возможностей выбора человека. Если человек может выбрать кумулятивную сумму, то автомат - тем более.

Речь о том, что любые признаки, подаваемые в модель, должны быть псевдостационарными, иначе модель не будет корректно работать на новых данных. Это ограничение классификатора.

данные должны быть представленны в рэндже значений, который сохраняется на новых данных. Если это условие не выполняется, то модель будет залипать в пограничных значениях при выходе за этот рэндж.

Например, предсказывать всегда 0 или всегда 1.
 
fxsaber #:

Хорошо, будем прогнозировать приращения. Тогда возьмем приращения приращений. Они псевдостационарны?

Однако, если мы научились прогнозировать приращения, обозначает ли это, что мы научились прогнозировать их производную - цену?

Да

 
Maxim Dmitrievsky #:

данные должны быть представленны в рэндже значений, который сохраняется на новых данных. Если это условие не выполняется, то модель будет залипать в пограничных значениях при выходе за этот рэндж.

Т.е. эти признаки заведомо должны быть выкинуты?

    # Add simple features
    raw_data['raw_SMA_10'] = raw_data['close'].rolling(window=10).mean()
    raw_data['raw_SMA_20'] = raw_data['close'].rolling(window=20).mean()

Т.к. запросто могут достигать значений вне интервала обучения.

 
fxsaber #:

Т.е. эти признаки заведомо должны быть выкинуты?

Т.к. запросто могут достигать значений вне интервала обучения.

Да, такие тоже нельзя использовать, как и цены открытия.

Ну.. условно нельзя. Технически можно, но это чревато затупами модели на новых данных.

Если есть какое-то видение, что они не выйдут в ближайшем будущем за свой диапазон, то можно.

 
Классификационное обучения понимает, что признаки price, returns^1, returns^2, ... это одно и тоже - существует однозначная взаимосвязь между ними, а потому из этого списка надо оставлять только один признак?
 
Maxim Dmitrievsky #:

Если есть какое-то видение, что они не выйдут в ближайшем будущем за свой диапазон, то можно.

Золото и крипта под такое не подходят.

 
fxsaber #:
Классификационное обучения понимает, что признаки price, returns^1, returns^2, ... это одно и тоже - существует однозначная взаимосвязь между ними, а потому из этого списка надо оставлять только один признак?

Это не одно и то же, разница все равно есть. Решение будет зависеть от общего количества признаков. Если оно слишком велико, то такое можно почистить. Если нет, то можно оставить без проблем. Тем более они немного отличаются (приращения с разным лагом) и могут вносить дополнительную полезную инфу в модель.

Price удаляется по озвученной выше причине однозначно.
 
fxsaber #:

Золото и крипта под такое не подходят.

мало что подходит, поэтому все признаки как минимум детрендируют.

 

Вроде, МО позиционируется, как существо (мега-человек) с супер-вычислительными способностями и памятью.

А простой человек какие признаки использует для создания ТС? Ни разу не видел, чтобы человек смотрел на график приращений и пытался его прогнозировать.

Причина обращения: