Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1605
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Например регрессия МГУА просто глумиться над регресией современного алгоритма random forest и бустингов там всяких..
бустинг лучше во всем, если фичи подготовить как для МГУА, будет лучше
а так вообще поф, если не знаешь чему обучать
Я вижу, вы хороший специалист. Не могли бы вы изложить суть МГУА в нескольких фразах, для нематематиков?
Я вообще не специалист )) к сожалению....
Если очень просто, грубо и неточно, то принцип МГУА в самоорганизации...
Например есть у нас набор признаков
х1,х2,х3.....х20...
из этих признаков создается набор моделей претендентов
м1,м2,м3.....м10...
из этих моделей отбираются лучшие , и уже из лучших создаются новые модели, опять отбор.... итд... и так до тех пор пока уменьшается ошибка на новых данных (ранее неизвестных алгоритму)
Те алгоритм сам себя изменяет, усложняет, самоорганизуеться... Чем то похоже на генетический алгоритм
регрессионная модель с перебором признаков, преобразованных разными ядрами (полиномиальным, сплайнами, не важно). Предпочтение отдается самой простой модели с наименьшей ошибкой. От переобучения на рынке не спасает.
грубо говоря, это брутфорс моделей, где выбирается самая простая, по внешним критериям
Тогда я не вижу в этой методике ничего нового и оригинального.
из этих моделей отбираются лучшие , и уже из лучших создаются новые модели, опять отбор.... итд... и так до тех пор пока уменьшается ошибка на новых данных (ранее неизвестных алгоритму)
Те алгоритм сам себя изменяет, усложняет, самоорганизуеться... Чем то похоже на генетический алгоритм
Тогда я не вижу здесь математики, это больше работа мозга, ну и кодинг. ГА тривиальная вещь же.
Чего тогда все носятся с этим МГУА, пишут диссертации, так что понять их невозможно, если внутри это какой-то примитив, интуитивно понятный еще с детского сада?
бустинг лучше во всем, если фичи подготовить как для МГУА, будет лучше
а так вообще поф, если не знаешь чему обучать
Не согласен...
Сделаем небольшой тест, быстрый, на глазок )
создадим четыре переменные (обычный рандом) по 1000 элементов
z1 <- rnorm(1000)
z2 <- rnorm(1000)
z3 <- rnorm(1000)
z4 <- rnorm(1000)
создадим целевую переменную у в виде суммы всех четырех
y <- z1+z2+z3+z4
обучим бустинг и мгуа, при чем обучим даже не на предсказание , а просто заставим объяснить у
я разбил выборку та три куска , на одном обучение два для теста
зеленым цветом МГУА
красным цветом бустинг ( Generalized Boosted Regression Modeling (GBM) )
серым цветом оригинальные данные
напомню, целевая это элементарная сумма всех предикторов
http://prntscr.com/rawx14
как видим оба алгоритма отлично справились с задачей
теперь немного усложним задачу
добавим в данные кумулятивную сумму или тренд
z1 <- cumsum(rnorm(1000))
z2 <- cumsum(rnorm(1000))
z3 <- rnorm(1000)
z4 <- rnorm(1000)
а также изменим целевую в вид
y <- z1+z2+z3
те выходит мы складываем два предиктора с трендом и один обычный , а z4 у нас получается шум потому что вообще не участвует в целевой у
и получаем такой результат
http://prntscr.com/rax81b
бустинг наш посыпался нафиг, а МГУА все не почем
Мне удалось "убить" МГУА только такой дикой целевой
y <- ((z1*z2)/3)+((z3*2)/z4)
да и то не полностью, а что с бустингом ? )))
http://prntscr.com/raxdnz
код для игр
Тогда я не вижу здесь математики, это больше работа мозга, ну и кодинг. ГА тривиальная вещь же.
Чего тогда все носятся с этим МГУА, пишут диссертации, так что понять их невозможно, если внутри это какой-то примитив, интуитивно понятный еще с детского сада?
Не знаю, но описывает данные намного лучше, пост написал, код выложил
Не согласен...
Сделаем небольшой тест, быстрый, на глазок )
на R нет желания ковыряться (юзаю питон), возможно, причина в том, что МГУА создает фейовые регрессоры, из-за этого подгоняет. Если сделать такой же подбор для бустинга, то отличий не будет
вот делал перебор по МГУА для леса
https://www.mql5.com/ru/code/22915
на R нет желания ковыряться (юзаю питон), возможно, причина в том, что МГУА создает фейовые регрессоры, из-за этого подгоняет. Если сделать такой же подбор для бустинга, то отличий не будет
вот делал перебор по МГУА для леса
https://www.mql5.com/ru/code/22915
в первых какие еще фейловые регрессоры?? шо за чушь , почему тогда при усложнении задачи МГУА тоже тухнет ??
в вторых у меня в примере одинаковые данные что для МГУА что для буста
в третьих , не надо тебе нигде ковыряться, ты что не можешь сделать в питоне матрицу с четырьмя рандомными значениями и потом сделать их кумулятивную сумму? Чтобы проверить буст у себя?
2 строчки кода ))
Мне самому интересно что там за фигня
в первых какие еще фейловые регрессоры?? шо за чушь , почему тогда при усложнении задачи МГУА тоже тухнет ??
в вторых у меня в примере одинаковые данные что для МГУА что для буста
в третьих , не надо тебе нигде ковыряться, ты что не можешь сделать в питоне матрицу с четырьмя рандомными значениями и потом сделать их кумулятивную сумму? Чтобы проверить буст у себя?
2 строчки кода ))
Мне самому интересно что там за фигня
мгуа создает фейковые переменные из исходных, (в зависимости от используемого ядра) еще раз повторяю
мгуа создает фейковые переменные, (в зависимости от используемого ядра) еще раз повторяю
Да забудь ты за МГУА, я тебе говорю - создай у себя подобный дата сет как у меня и прогони свой бустинг по нему и посмотрим что получиться, БЕЗ МГУА, только форест или что там у тебя любимое. Или скинуть тебе текстовик именно моими данными ?