Обсуждение статьи "Градиентный бустинг (CatBoost) в задачах построения торговых систем. Наивный подход" - страница 6
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Спасибо за статью. Для начинающего в области AI ML, просто и понятно. Интересно есть ли оупен группы, митапы онлайн для продолжения исследований? Хотелось бы присоединиться к какой либо комманде исследователей.
в теме "машинное обучение" обсуждение происходит, команд нет как таковых
наиболее понятный пошаговый туториал, so far
Все было хорошо пока не нажал компилировать mq5 файл в папке. 61 errors, 7 warnings (((((((
видимо, вам лучше не заниматься компиляцией
Глаза наверное сжег пока разобрался что ты тут на..вертил, хоть и все просто до нельзя , но все же тяжело воспринимать чужие мысли...
Что могу сказать
1) признаки точно не лучшие, есть огромный простор
2) перемешивать данные перед обучением классификатора не обязательно (Это абсолютно ничего не дает я проверил)
3) Что действительно ценного это целевая, именно она тащит всю статью (сравнивал с ЗЗ, ЗЗ в мусор)
В целом подход получился такой - максимально все "шевелим лишь бы на валидации получить хороший результат"
И отбираем самую лучшую модельку )))
И У меня получилось "нашевелить" этим способом
Но по факту , это тот же способ о котором я говорил когда оптимизировал веса нейронки, только я сразу на макс. прибыль "шевелил"
Ну как то так, не знаю что еще написать..
Глаза наверное сжег пока разобрался что ты тут на..вертил, хоть и все просто до нельзя , но все же тяжело воспринимать чужие мысли...
Что могу сказать
1) признаки точно не лучшие, есть огромный простор
2) перемешивать данные перед обучением классификатора не обязательно (Это абсолютно ничего не дает я проверил)
3) Что действительно ценного это целевая, именно она тащит всю статью (сравнивал с ЗЗ, ЗЗ в мусор)
В целом подход получился такой - максимально все "шевелим лишь бы на валидации получить хороший результат"
И отбираем самую лучшую модельку )))
И У меня получилось "нашевелить" этим способом
Но по факту , это тот же способ о котором я говорил когда оптимизировал веса нейронки, только я сразу на макс. прибыль "шевелил"
Ну как то так, не знаю что еще написать..
Без GMM так не работает. Плюс ты не заценил на каком коротком интервале можно делать обучение и как долго потом модель живет на новых данных. Это не предел, есть способы продлить жизнь. Весь подход это органичное ОДНО, нельзя разделять части.
признаки да, можно более осмысленные пробовать. Юзай, улучшай
Без GMM так не работает. Плюс ты не заценил на каком коротком интервале можно делать обучение и как долго потом модель живет на новых данных. Это не предел, есть способы продлить жизнь. Весь подход это органичное ОДНО, нельзя разделять части.
признаки да, можно более осмысленные пробовать. Юзай, улучшай
завтра с gmm буду пробовать
завтра с gmm буду пробовать
А, ты именно про эту статью написал. Тогда да. Эта вводная, чтобы совсем крышу не сносило у читающего.
Да , решил по порядку разобраться