Обсуждение статьи "Продвинутый ресемплинг и выбор CatBoost моделей брутфорс методом" - страница 10
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Какие?
F1, MCC вроде получше
вот полный список
https://catboost.ai/docs/concepts/loss-functions-classification.html
F1, MCC вроде получше
вот полный список
https://catboost.ai/docs/concepts/loss-functions-classification.html
Еще раз
Ну да, есть смысл иногда.
Еще немного позапускал. Да, есть смысл стакать. Вопрос кол-ва пока открытый.
Прекрасная статья и титаническая работа!
Дропнул метки стоящие после смены направления в датасете перед тем как подать их в модель смесей.
по наблюдениям, большее число моделей дают положительный результат.
результаты лучшего теста в тестере и терминале:
Вообще, прекраская работа. С помощью нее я проверил все свои целевые и выбросил их в мусору))
Прекрасная статья и титаническая работа!
Дропнул метки стоящие после смены направления в датасете перед тем как подать их в модель смесей.
по наблюдениям, большее число моделей дают положительный результат.
результаты лучшего теста в тестере и терминале:
Вообще, прекраская работа. С помощью нее я проверил все свои целевые и выбросил их в мусору))
да, можно дропать перед кластеризацией
спасибо за отзыв :)
З.Ы так можно тестировать сразу все модели, усредненные. Поиграть. Парсер для всех моделей пока не делал, еще пока сомневаюсь. Но иногда ансамбль из нескольких моделей реально улучшает.
ЗЫЗЫ. можно сделать перебор разных комбинаций обученных моделей по той же метрике R2, как развитие темы. Потом сохранять лучший ансамбль. Можно даже через генетику, если моделей много.I took EURUSD, H1 data from 2015 to 2020 and did split it into three sets:
I have double checked my code and yet I might have done something wrong. Anyhow you might have some idea about the results. Best regards, Rasoul
I took EURUSD, H1 data from 2015 to 2020 and did split it into three sets:
I have double checked my code and yet I might have done something wrong. Anyhow you might have some idea about the results. Best regards, Rasoul
Подскажите, а как можно загружать свои данные через csv-файл?
Пробывал так, но не загрузилось.
В файле такой формат:
time,close
2020,11,15,1.3587
2020,11,16,1.3472
Подскажите, а как можно загружать свои данные через csv-файл?
т.е. это пример загрузки данных из терминала, сохранения в файл. А потом можно использовать в колабе
Hi, Rasoul. Try to reduce the training set size. It can depends of different settings, but key trick is that then less train size, better generalisation on new data. In the next article I’ll try to explain this effect.
Вот это хорошо. Было бы здорово увидеть в статье ремарку об области применимости данного тезиса - в частности, к различным методам МО. Почему-то для НС рекомендуют 70/30. А по логике, ИМХО, 50/50 должно давать более стабильные результаты.
Вот это хорошо. Было бы здорово увидеть в статье ремарку об области применимости данного тезиса - в частности, к различным методам МО. Почему-то для НС рекомендуют 70/30. А по логике, ИМХО, 50/50 должно давать более стабильные результаты.
Есть активное и пассивное обучение. Пассивное заключается в ручной разметке данных и обучении на них, в этом случае данных должно быть много, но возникает проблема правильной разметки. Т.е. "учитель" сам должен так разметить данные, чтобы они были, условно, из одного и того же распределения и хорошо обобщались. В этой связи почти нет разницы какая пропорция трейн\тест. Это почти ничего не дает, просто проверка модели, проверка того, насколько хорошо вы разметили данные вручную.
В активном обучении модель учится сама размечать данные оптимальным образом. В статье как раз такой случай разметки через GMM. То есть используется как обучение с учителем, так и без учителя. В данном случае модель учится учиться на небольших размеченных данных и должна сама разметить оставшиеся данные оптимальным образом. Это относительно новый подход (примерно от 2017 г.). И я хочу рассмотреть его более детально в след. статье.
слишком много "данных" в предложениях, извиняюсь за тавтологию )