Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2276
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
как логарифмирование поможет распознать паттерны которые я нарисовал выше?
Я так и думал...
апроксимировать можно чем угодно , мне нужен способ инвариантности к времени, амплитуде, частоте
сначала аппрокс, потом нормалайз
сначала аппрокс, потом нормалайз
как ты время нормализировать предлагаешь?
как ты время нормализировать предлагаешь?
ты глупый? для времени апсемплинг или даунсемплинг через интерполяцю\аппроксимацию
ты глупый? для времени апсемплинг или даунсемплинг через интерполяцю\аппроксимацию
нет...
интерполяцю\екстраполяцию делать это тоже самое что и с окнами разного размера еб..ся , те же потери
Ты понимаешь какие это затраты по времени? на каждой итерации
как логарифмирование поможет распознать паттерны которые я нарисовал выше?
Просто прологарифмируйте каждый из этих кусочков. Имеется в виду - от ряда X(t) перейти к ряду log(X(t)). Потом надо вспомнить про сдвиг. А потом можно уже и DTW.
нет...
интерполяцю\екстраполяцию делать это тоже самое что и с окнами разного размера еб..ся , те же потери
Ты понимаешь какие это затраты по времени? на каждой итерации
А зачем все это?
Ночные колебания за 2 часа и дневные за 20 минут хоть и могут быть похожи по форме, но имеют разные причины, разную движущую силу, разные закономерности, разных участников.
И дневные за 20 минут и за 3 часа тоже разные.
Мне кажется надо только соизмеримые объединять как один шаблон, например если отличаются не более чем на 30-50% по времени и/или амплитуде.
А зачем все это?
потому что нету на рынке одинаково повторяющихся паттернов ... в фиксированой шкале точно, хочу проверить в другой шкале
А близкие по амплитуде варианты и так обобщатся. Дерево например, поделив фичу 3 раза пополам получит куски от 0 до 0.25, от 0.25 до 0.5, от 0.5 до 0.75 и от 0.75 до 1.
т.о. в один лист попадут все варианты где эта фича например от 0.5 до 0.75 - в нем будут и 0.5. и 0.55 и 0.64 и 0.72. Вполне неплохое обобщение по амплитуде. У нейросеток наверное так же, за счет нелинейных ф-й активации.
Вот по времени обобщения нет в дереве.
Надо видимо в шаблон из 20 фичей вписывать и куски из 10 фичей растягивая их и куски из 50 фичей сжимая и еще десяток промежуточный вариантов.
нет...
интерполяцю\екстраполяцию делать это тоже самое что и с окнами разного размера еб..ся , те же потери
Ты понимаешь какие это затраты по времени? на каждой итерации
это очень быстро. У тебя есть шаблон 1000 знаков. Тебе надо интерполировать более мелкие образцы до размера шаблона
7 микросекунд потерпишь
но может надо более мелкие шаблоны коррелировать между собой (мелкие по точкам по оси Х), тогда будет быстрее. Тогда лучше сжимать большие и интерполировать мелкие.
ЗЫ. Если, например, образец 490 а шаблон 500, можно добавить 10 Nan в ряд случайным образом (а лучше равномерно распределить), а потом интерполировать
а если уменьшить надо то еще проще, в кусочно-линейной апрроксимации задаешь кол-во кусков равное 500, если образец > 500
ну и диапазон размеров окна сильно большой не нужен. От 200 до 800 там.. с шагом 20-50. Все будет летать. А может и не будет, вообще непонятно зачем это надо ) но у типа в видео быстро все, но паттерны ужас какие кривые находит