Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2276

 
mytarmailS:

как логарифмирование поможет распознать паттерны которые я нарисовал выше?

Я так и думал...

 
mytarmailS:

апроксимировать можно чем угодно , мне нужен способ инвариантности к времени, амплитуде, частоте

сначала аппрокс, потом нормалайз

 
Maxim Dmitrievsky:

сначала аппрокс, потом нормалайз

как ты время нормализировать предлагаешь?

 
mytarmailS:

как ты время нормализировать предлагаешь?

ты глупый? для времени апсемплинг или даунсемплинг через интерполяцю\аппроксимацию

 
Maxim Dmitrievsky:

ты глупый? для времени апсемплинг или даунсемплинг через интерполяцю\аппроксимацию

нет...

интерполяцю\екстраполяцию делать  это тоже самое что и с окнами разного размера  еб..ся , те же потери

Ты понимаешь какие это затраты по времени? на каждой итерации 

 
mytarmailS:

как логарифмирование поможет распознать паттерны которые я нарисовал выше?

Просто прологарифмируйте каждый из этих кусочков. Имеется в виду - от ряда X(t) перейти к ряду log(X(t)). Потом надо вспомнить про сдвиг. А потом можно уже и DTW.

 
mytarmailS:

нет...

интерполяцю\екстраполяцию делать  это тоже самое что и с окнами разного размера  еб..ся , те же потери

Ты понимаешь какие это затраты по времени? на каждой итерации 

А зачем все это?
Ночные колебания за 2 часа и дневные за 20 минут хоть и могут быть похожи по форме, но имеют разные причины, разную движущую силу, разные закономерности, разных участников.
И дневные за 20 минут и за 3 часа тоже разные.


Мне кажется надо только соизмеримые объединять как один шаблон, например если отличаются не более чем на  30-50% по времени и/или амплитуде.

 
elibrarius:

А зачем все это?

потому что нету на рынке одинаково повторяющихся паттернов ... в фиксированой шкале точно, хочу проверить в другой шкале

 

А близкие по амплитуде варианты и так обобщатся. Дерево например, поделив фичу 3 раза пополам получит куски от 0 до 0.25, от 0.25 до 0.5, от 0.5 до 0.75 и от 0.75 до 1.

т.о. в один лист попадут все варианты где эта фича например от 0.5 до 0.75 - в нем будут и 0.5. и 0.55 и 0.64 и 0.72. Вполне неплохое обобщение по амплитуде. У нейросеток наверное так же, за счет нелинейных ф-й активации.

Вот по времени обобщения нет в дереве.

Надо видимо в шаблон из 20 фичей вписывать и куски из 10 фичей растягивая их и куски из 50 фичей сжимая и еще десяток промежуточный вариантов.

 
mytarmailS:

нет...

интерполяцю\екстраполяцию делать  это тоже самое что и с окнами разного размера  еб..ся , те же потери

Ты понимаешь какие это затраты по времени? на каждой итерации 

это очень быстро. У тебя есть шаблон 1000 знаков. Тебе надо интерполировать более мелкие образцы до размера шаблона

7 микросекунд потерпишь 

но может надо более мелкие шаблоны коррелировать между собой (мелкие по точкам по оси Х), тогда будет быстрее. Тогда лучше сжимать большие и интерполировать мелкие.

ЗЫ. Если, например, образец 490 а шаблон 500, можно добавить 10 Nan в ряд случайным образом (а лучше равномерно распределить), а потом интерполировать

а если уменьшить надо то еще проще, в кусочно-линейной апрроксимации задаешь кол-во кусков равное 500, если образец > 500

ну и диапазон размеров окна сильно большой не нужен. От 200 до 800 там.. с шагом 20-50. Все будет летать. А может и не будет, вообще непонятно зачем это надо ) но у типа в видео быстро все, но паттерны ужас какие кривые находит

Причина обращения: