Обсуждение статьи "Градиентный бустинг (CatBoost) в задачах построения торговых систем. Наивный подход" - страница 6

 
Спасибо за статью. Для начинающего в области AI ML, просто и понятно. Интересно есть ли оупен группы, митапы онлайн для продолжения исследований? Хотелось бы присоединиться к какой либо комманде исследователей.  
 
Denis Karavaev:
Спасибо за статью. Для начинающего в области AI ML, просто и понятно. Интересно есть ли оупен группы, митапы онлайн для продолжения исследований? Хотелось бы присоединиться к какой либо комманде исследователей.  

в теме "машинное обучение" обсуждение происходит, команд нет как таковых

 

наиболее понятный пошаговый туториал, so far

 
Все было хорошо пока не нажал компилировать mq5 файл в папке. 61 errors, 7 warnings    (((((((
 
grin4k:
Все было хорошо пока не нажал компилировать mq5 файл в папке. 61 errors, 7 warnings    (((((((

видимо, вам лучше не заниматься компиляцией

 
Maxim Dmitrievsky:

Глаза наверное сжег пока разобрался что ты тут на..вертил, хоть и все просто до нельзя , но все же тяжело воспринимать чужие мысли...

Что могу сказать

1) признаки точно не лучшие, есть огромный простор

2) перемешивать данные перед обучением классификатора не обязательно (Это абсолютно ничего не дает я проверил)

3) Что действительно ценного это целевая, именно она тащит всю статью (сравнивал с ЗЗ, ЗЗ в мусор)


В целом подход получился такой  - максимально все "шевелим лишь бы на валидации получить хороший результат"

И отбираем самую лучшую модельку )))

И У меня получилось "нашевелить" этим способом 

Но по факту , это тот же способ о котором я говорил когда оптимизировал веса нейронки, только я сразу на макс. прибыль "шевелил"

Ну как то так, не знаю что еще написать..

 
mytarmailS:

Глаза наверное сжег пока разобрался что ты тут на..вертил, хоть и все просто до нельзя , но все же тяжело воспринимать чужие мысли...

Что могу сказать

1) признаки точно не лучшие, есть огромный простор

2) перемешивать данные перед обучением классификатора не обязательно (Это абсолютно ничего не дает я проверил)

3) Что действительно ценного это целевая, именно она тащит всю статью (сравнивал с ЗЗ, ЗЗ в мусор)


В целом подход получился такой  - максимально все "шевелим лишь бы на валидации получить хороший результат"

И отбираем самую лучшую модельку )))

И У меня получилось "нашевелить" этим способом 

Но по факту , это тот же способ о котором я говорил когда оптимизировал веса нейронки, только я сразу на макс. прибыль "шевелил"

Ну как то так, не знаю что еще написать..

Без GMM так не работает. Плюс ты не заценил на каком коротком интервале можно делать обучение и как долго потом модель живет на новых данных. Это не предел, есть способы продлить жизнь. Весь подход это органичное ОДНО, нельзя разделять части.

признаки да, можно более осмысленные пробовать. Юзай, улучшай

 
Maxim Dmitrievsky:

Без GMM так не работает. Плюс ты не заценил на каком коротком интервале можно делать обучение и как долго потом модель живет на новых данных. Это не предел, есть способы продлить жизнь. Весь подход это органичное ОДНО, нельзя разделять части.

признаки да, можно более осмысленные пробовать. Юзай, улучшай

завтра с gmm буду пробовать

 
mytarmailS:

завтра с gmm буду пробовать

А, ты именно про эту статью написал. Тогда да. Эта вводная, чтобы совсем крышу не сносило у читающего.
 
Maxim Dmitrievsky:
А, ты именно про эту статью написал. Тогда да. Эта вводная, чтобы совсем крышу не сносило у читающего.

Да , решил по порядку разобраться