Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1333

 
Aleksey Vyazmikin:

Ожидаю что хоть модели не будут похожи на те, что до обмены местами выборок.

ну будут не похожи и что дальше? )

 
Maxim Dmitrievsky:

ну будут не похожи и что дальше? )

Это будет хорошо, так-как их можно параллельно использовать тогда.

 
Aleksey Vyazmikin:

Это будет хорошо, так-как их можно параллельно использовать тогда.

ну да, пальем в небо, т.е. оптимальное решение не найдено

еще seed поменяйте и наклепайте кучу мусора
 
Maxim Dmitrievsky:

похоже, надо подкачать R а не питон, Ренат написал что скоро будет прямая связка без костылей

т.е. катбуст можно будет запускать в 1 строку из мт5

Я наверное пропустил это сообщение. Не подскажите когда это было или ссылку.

Удачи

 
Vladimir Perervenko:

Я наверное пропустил это сообщение. Не подскажите когда это было или ссылку.

Удачи

Да, было вскользь вот тут 

https://www.mql5.com/ru/forum/302625/page8#comment_10568532

Есть ли смысл переходить с МТ4 на МТ5? Почему Вы перешли на МТ5?
Есть ли смысл переходить с МТ4 на МТ5? Почему Вы перешли на МТ5?
  • 2019.02.08
  • www.mql5.com
Добрый день! Около года в свободное время (хобби) пишу роботов на МТ4. Есть ли смысл переходить на МТ5...
 
Maxim Dmitrievsky:

ну да, пальем в небо, т.е. оптимальное решение не найдено

еще seed поменяйте и наклепайте кучу мусора

Что значит пальцем в небо? Две параллельно работающие модели это хороший вариант, почему нет?

Seed конечно буду и дальше менять, пока не услышу вменяемых аргументов - какая разница кто его крутит я или генератор случайных цифр - не ясно. Скоро ещё модели подоспеют с параметром "--bagging-temperature" - наверное так же мусор по Вашей классификации, а мне интересно взглянуть.

 
Aleksey Vyazmikin:

Что значит пальцем в небо? Две параллельно работающие модели это хороший вариант, почему нет?

Seed конечно буду и дальше менять, пока не услышу вменяемых аргументов - какая разница кто его крутит я или генератор случайных цифр - не ясно. Скоро ещё модели подоспеют с параметром "--bagging-temperature" - навное так же мусор по Вашей классификации, а мне интересно взглянуть.

если они работающие, то почему бы и нет

просто вопрос в том что вы можете увеличить эффективность в разы, применив очень простые приемы

я специально о них не пишу открыто, потому что хочу что бы вы почитали книгу. И вообще там много такого зарыто, что может по прямой вывести на хорошие модели. Но только тссс...

про багинг температуру интересно посмотреть, на знаю что имеется в виду
 
Maxim Dmitrievsky:

если они работающие, то почему бы и нет

просто вопрос в том что вы можете увеличить эффективность в разы, применив очень простые приемы

я специально о них не пишу открыто, потому что хочу что бы вы почитали книгу. И вообще там много такого зарыто, что может по прямой вывести на хорошие модели. Но только тссс...

про багинг температуру интересно посмотреть, на знаю что имеется в виду

Я посмотрел про МГУА, не знаю к какой это книге конкретно относится, но с таким названием не ищется. Как я понял, эта вещь используется в CatBoost

--l2-leaf-reg

l2-leaf-regularizer

L2 regularization coefficient. Used for leaf value calculation.

Any positive values are allowed.

3

CPU and GPU


Или речь о чем то другом? Ещё этот метод можно использовать при создании самих предикторов, к примеру для описания паттернов на определенных участках.

 
Aleksey Vyazmikin:

Я посмотрел про МГУА, не знаю к какой это книге конкретно относится, но с таким названием не ищется. Как я понял, эта вещь используется в CatBoost

--l2-leaf-reg

l2-leaf-regularizer

L2 regularization coefficient. Used for leaf value calculation.

Any positive values are allowed.

3

CPU and GPU


Или речь о чем то другом? Ещё этот метод можно использовать при создании самих предикторов, к примеру для описания паттернов на определенных участках.

ну это регуляризация Тихонова, а где багинг температура?

 
Maxim Dmitrievsky:

ну это регуляризация Тихонова, а где багинг температура?

Но смысл кажется тот же, нет? Я просто вообще не знаю, что там внутри за алгоритм...

--bagging-temperature

Defines the settings of the Bayesian bootstrap. It is used by default in classification and regression modes.

Use the Bayesian bootstrap to assign random weights to objects.

The weights are sampled from exponential distribution if the value of this parameter is set to “1”. All weights are equal to 1 if the value of this parameter is set to “0”.

Possible values are in the range . The higher the value the more aggressive the bagging is.

1
Причина обращения: