Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1538
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
голосовые и музыкальные файлы сжимают с помощью dtw, а они в свою очередь являются тоже ВР
;)
вот только зачем сжимать фин. вр :)
вот только зачем сжимать фин. вр :)
ну я уже изучал эту тему, если своими словами, то примерно так:
тут в общем в чем ценность dtw - это правильный алгоритм для сжатия ВР - именно ВР, а не абы каких и не пофиг как данных
ну и если мы умеем правильно сжимать данные - мы получаем пакеты? образы? - ну или пусть это будут паттерны данных - вот именно эти паттерны данных и позволяют создавать алгоритмы распознавания речи
примерно так я вижу как используют dtw
в принципе к фин.ВР можно применять dtw, имхо если нет потери данных после преобразования (т.е. возможно обратное преобразование), то имеет смысл к фин.ВР пробовать применить, как говорится а вдруг?
ЗЫ: вот читал пару лет назад статью https://habr.com/ru/post/135087/
ну я уже изучал эту тему, если своими словами, то примерно так:
тут в общем в чем ценность dtw - это правильный алгоритм для сжатия ВР - именно ВР, а не абы каких и не пофиг как данных
ну и если мы умеем правильно сжимать данные - мы получаем пакеты? образы? - ну или пусть это будут паттерны данных - вот именно эти паттерны данных и позволяют создавать алгоритмы распознавания речи
примерно так я вижу как используют dtw
в принципе к фин.ВР можно применять dtw, имхо если нет потери данных после преобразования (т.е. возможно обратное преобразование), то имеет смысл к фин.ВР пробовать применить, как говорится а вдруг?
ЗЫ: вот читал пару лет назад статью https://habr.com/ru/post/135087/
ну можно будет поковырять потом как-нибудь, да. Для извлечения тех же паттернов из ретурнов мб
с другой стороны нафиг, ели есть нейросетьс другой стороны нафиг, ели есть нейросеть
ох не знаю, забросил изучение всего этого, интересная штука, но имхо, должны и есть более простые способы понять? что к чему в рынке
про НС, ну ты же знаешь, что процессинг данных более важен чем конфиг или тип НС, имхо, dtw - это правильная обработка ВР ( при обработке именно ВР!!! ) важна последовательность данных!
про тот же dtw в обработке голоса - важна же последовательность / чередование букаф ? ;)
UPD:
если в НС кормить при обучении просто скользящее окно данных ВР (бары), то имхо, это иллюзия, что через входы НС - именно как мы нарисовали 1,2,3...N вход, НС будет воспринимать что данные подаются последовательно как мы хотим, внутри все входы будут перепутаны, имхо, не будет для НС это скользящим окном
ох не знаю, забросил изучение всего этого, интересная штука, но имхо, должны и есть более простые способы понять? что к чему в рынке
про НС, ну ты же знаешь, что процессинг данных более важен чем конфиг или тип НС, имхо, dtw - это правильная обработка ВР ( при обработке именно ВР!!! ) важна последовательность данных!
про тот же dtw в обработке голоса - важна же последовательность / чередование букаф ? ;)
Не сведущ в этих вопросах, насколько знаю для этого давно используются рекуррентные и сверхточные нейросеть. Например, алгоритм seq2seq от гугла. Не будет ли выглядеть dtw блеклым на этом фоне, не хотелось бы лишний раз впустую сжимать булки на стуле :)
читал про рекуррентные и сверхточные, ну как бы да, но все примеры как всегда по распознаванию картинок, а там начинают фокусы со сжатием палитры вроде производить
фиг его знает, звуковые волны ближе к фин.ВР чем картинки - тоже не стационарные, а картинки там вроде больше теряют сжимая инфу при обработке чем стараются восстановить - вроде как быстрее и лучше учится НС
читал про рекуррентные и сверхточные, ну как бы да, но все примеры как всегда по распознаванию картинок, а там начинают фокусы со сжатием палитры вроде производить
фиг его знает, звуковые волны ближе к фин.ВР чем картинки - тоже не стационарные, а картинки там вроде больше теряют сжимая инфу при обработке чем стараются восстановить - вроде как быстрее и лучше учится НС
NLP и seq2seq глянь, это именно для речи звуков и проч
вообще что то про них не слышал, хотя материала перечитал ой сколько! посмотрю завтра, спс
голосовые и музыкальные файлы сжимают с помощью dtw, а они в свою очередь являются тоже ВР
;)
ну я уже изучал эту тему, если своими словами, то примерно так:
)) какое нафиг сжатие? что вы там изучали не понятно но точно не то
вот только зачем сжимать фин. вр :)
и действительно, зачем? :))
Можно просто дискретизировать входные данные, например 5ти знак преобразовать к 4 знаку. И данные будут уже групками по 10.
Ну или как предлагал ранее - встроить в алглиб лес остановку ветвления при достижении нужной глубины или количества примеров в листе.
дискретизация работает лучше чем кат фичи+ванхот, не получилось значительно улучшить