Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 363
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Зачем так узко мыслить, здесь все так пишут, как будто слаще морковки ничего не видели )) В топку предикторы, обучайте нейронку находить эти самые предикторы, обучайте нейронку обучать нейронку, эксперементируйте :) Естественно это очень тупо брать просто индикаторы, подавать их на вход а на выход подавать зигзаг, не знаю почему все это обсуждают :)
Очень бы хотелось конечно, но…
Например сверточные нейросети отчасти обладают таким “навыком”, умеют сами учиться предобработке(фильтрации), но они очень узко-специализированы, как потомки Нео-Когнитрона Фокусимы, разработанного как “аналог” ретины глаза, обучаемый бэкпропом, CNN собственно и для картинок штука не тривиальная? в конфигурировании, много волшебных чисел и шаманских архитектур, шаг в лево, шаг в право и всё ломается, то есть это - очень тонкая настройка пот задачу, а не некий универсальный решатель всего и вся. К сожалению, с инженерной точки зрения, разрабатывать чудо системы, что бы они сами всё делали – наивная утопия, на порядки проще делать частные решения пот задачу, которые итак могут занять годы работы коллектива, а СИИ - это ближе к чему то философскому, гуманитарному.
Очень бы хотелось конечно, но…
Например сверточные нейросети отчасти обладают таким “навыком”, умеют сами учиться предобработке(фильтрации), но они очень узко-специализированы, как потомки Нео-Когнитрона Фокусимы, разработанного как “аналог” ретины глаза, обучаемый бэкпропом, CNN собственно и для картинок штука не тривиальная? в конфигурировании, много волшебных чисел и шаманских архитектур, шаг в лево, шаг в право и всё ломается, то есть это - очень тонкая настройка пот задачу, а не некий универсальный решатель всего и вся. К сожалению, с инженерной точки зрения, разрабатывать чудо системы, что бы они сами всё делали – наивная утопия, на порядки проще делать частные решения пот задачу, которые итак могут занять годы работы коллектива, а СИИ - это ближе к чему то философскому, гуманитарному.
Но в то что можно сделать хороший самооптимизирующийся аппарат я верю, который не будет работать идеально всегда но периодами будет давать
Но это явно не на стандартных индикаторах и зигзаге на выходе будет :) Это даже звучит как какие-то детские игры по-моему, просто как пример если только.
они не то что не коррелированы, они при увеличении выборки будут вообще противоречить сами себе, да, в итоге на выходе либо конфуз - всегда 0 или 1, или 0.5.. тем более у 1 нейрона. То есть если >0.5 продать а <0.5 купить. Вы загружаете в нее правильные (по вашему мнению) предикторы и правильные ответы, что вот если рси мол перепродан и на следующих n-барах рынок рос, то подаем на выход 0, если рси перекуплен и рынок падал то подаем. Но будет куча случаев когда это будет наоборот, и она затупит, смешает сигналы и войдет в транс. В итоге на выходе будет все время около 0.5 с очень маленькими отклонениями в ту или иную сторону... и так будет со всеми осцилляторами, потому что они вообще не предикторы нифига, а производные от цены :)
Надо если > 0.8 купить, если<0.2 продать. Так вы отсеете шум, который лежит в середине диапазона, т.е. около 0,5
вы не поняли )
Нейросети на ALGLIB и R - весовые коэффициенты подбирают от -1 до 1?
Так то сложно... на это времени уйдет больше, чем если понять алгоритм (как для К корелляции выше) и написать. Думаю функция по перебору всех входов, расчету корреляции и отсеву высококоррелированных займет пару часов.
Надеюсь и с др. решениями по отсеву предикторов получится так же просто)
Так есть еще другие решения по поиску ненужных предикторов?
Посмотрите здесь.
При оценке важности предикторов важно помнить, что это комплексная величина, не определяется только информационными критериями. В статье я привел пример выбора предикторов с применением RandomUniformForest с целью показать важность предикторов в различных аспектах. По моему мнению это наиболее удачный пакет для этой цели.
Конкретно для нейросетей важность предикторов можно определять по их весам в первом слое. Этот подход используется в Н2О. Если найду время приведу пример.
Кроме важности предикторов нужно также определять шумовые примеры(строки). И или выносить их отдельный класс, либо удалять из учебного набора. Смотрите NoiseFilterR
Удачи
Вопрос к тем, кто давно в теме НС.
Нейросети на ALGLIB и R - весовые коэффициенты подбирают от -1 до 1?
Vladimir Perervenko:
В статье я привел пример выбора предикторов с применением RandomUniformForest с целью показать важность предикторов в различных аспектах.
Интересно было бы узнать алгоритм расчета важности в этой ф-ии, чтобы сделать аналог в MQL
Vladimir Perervenko:
Конкретно для нейросетей важность предикторов можно определять по их весам в первом слое. Этот подход используется в Н2О. Если найду время приведу пример.
Тоже об этом думал, реализовать несложно.
Vladimir Perervenko:
Кроме важности предикторов нужно также определять шумовые примеры(строки). И или выносить их отдельный класс, либо удалять из учебного набора. Смотрите NoiseFilterRВот это новое для меня, спасибо за идею, надо обдумать.)
Вы о начально инициализации весов или?
Начальная полагаю случайно выбирается (как вариант в середине диапазона).
Интересно было бы узнать алгоритм расчета важности в этой ф-ии, чтобы сделать аналог в MQL
Тоже об этом думал, реализовать несложно.
Вот это новое для меня, спасибо за идею, надо обдумать.)
Имею в виду каков полный диапазон в котором они подбираются - от -1 до 1.Начальная полагаю случайно выбирается (как вариант в середине диапазона).
Нейросети очень чувствительны к начальной инициализации весов. Это совсем не тривиальный вопрос. Существует довольное большое количество способ начальной инициализации один из которых - претренинг (используется в глубоких нейросетях) наи более перспективен (ИМХО).
В процессе обучения веса нейронов могут принимать значения в широком диапазоне от -inf до +inf. Для предотвращения этих перекосов применяют регуляризацию и другие методы стабилизации, ограничивающая диапазон весов.
Удачи