Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2477
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
А разве нету стандартных библ. в питоне для этого?
Вероятно, такие библиотеки есть, но мне не попадались.
Кому интересно, прикладываю скрипт для балансировки классов при решении задачи классификации.
Балансировка основана на ресемплинге исходной выборки при помощи модели гауссовых смесей. Советую юзать, так как в местных датасетах редко метки классов сбалансированны.
Сэкономит много времени и нервов.
Думаю нужно уточнять что, при решении задач классификации нейросетями.
Леса и бустинги не требуют балансировки.
Вероятно, такие библиотеки есть, но мне не попадались.
Понятно... просто в Р-ке навалом всего для МО , аж глаза разбегаються, а питон позиционируеться как язык для МО, а в нем нету ничего кроме 2-3 расркученых библ.
Как то не понятно((
Думаю нужно уточнять что, при решении задач классификации нейросетями.
Леса и бустинги не требуют балансировки.
Возможно.
Понятно... просто в Р-ке навалом всего для МО , аж глаза разбегаються, а питон позиционируеться как язык для МО, а в нем нету ничего кроме 2-3 расркученых библ.
Как то не понятно((
С R не знаком, занимаюсь MO факультативно и по Данингу-Крюгеру я только в начале пути в ущелье отчаяния
А разве нету стандартных библ. в питоне для этого?
Кому интересно, прикладываю скрипт для балансировки классов при решении задачи классификации.
Балансировка основана на ресемплинге исходной выборки при помощи модели гауссовых смесей. Советую юзать, так как в местных датасетах редко метки классов сбалансированны.
Сэкономит много времени и нервов.
начале пути в ущелье отчаяния
Тут больше эффект от стандартизации, чем балансировки, по моему. Плюс сэмплинг из распределений помогает от переобучения
Я правильно понял, чем больше семплов, тем признаки ближе к стандартизированным?
Я правильно понял, чем больше семплов, тем признаки ближе к стандартизированным?