Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3400
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Что не так с кодом? На хэлпе в студио он у меня зависает :)
Там же написано даже на скрине "логистическая регрессия" - естественно я смотрел примеры, которые почему то уже на питоне у них
вот ето попробуй
бинарная классификация
1000 строк
50 тысяч признаков / колонок
поднабор лучшых признаков нашло меньше чем за 3 секунды
все признаки которые имеют отношение к целевой нашло и ниодной шумовой из 50-ти тысяч
1) Что не так с кодом? На хэлпе в студио он у меня зависает :)
2) Там же написано даже на скрине "логистическая регрессия" - естественно я смотрел примеры, которые почему то уже на питоне у них
1) ВСЕ не так, какое нафиг лассо это же регресия , а данные ты всунул для классификации
2) Там написано КЛАССиФИКАЦИЯ : ..... , данные по титанику , целевая бинарная выжил/не выжил
А логистическая регрессия это алгоритм классификации, нпример тексты ею классифицируютhttps://youtu.be/Ipw_2A2T_wg?si=U03oigHFfaFxwjbs
Навеяло..
вот ето попробуй
бинарная классификация
Спасибо. Вот теперь работает быстро!
GPT не заменит человека конечно, но вполне хорошо помогает.
50 тысяч признаков / колонок
поднабор лучшых признаков нашло меньше чем за 3 секунды
все признаки которые имеют отношение к целевой нашло и ниодной шумовой из 50-ти тысяч
Такс, нашел он мне значит 6 предикторов из всего списка. Хм, сейчас на них обучу 100 моделей CatBoost и посмотрим средний результат.
А логистическая регрессия это алгоритм классификации, нпример тексты ею классифицируют
Да, конечно, это алгоритм классификации. Я чего то не увидел противоречий во всех там Ваших доводах и моих ранее сказанных слов. В общем - какое то недопонимание.
Вот такой код - сохраняет индексы предикторов для исключения и список предикторов, которые отобрал этот метод
Итак сравниваем - обучено 100 моделей CB - первый картинка будет с применением метода abess, а вторая без, результат на выборке train
Выборка test - по ней останавливаем обучение.
Выборка exam - отложенная выборка, не участвующая в процессе обучения
Кажется, что метод abess отбора не очень то эффективно работает...
Замечу, что у меня очень не сбалансированные классы, единиц порядка 16% всего - может это влияет на отбор.
Кажется, что метод abess отбора не очень то эффективно работает...
Замечу, что у меня очень не сбалансированные классы, единиц порядка 16% всего - может это влияет на отбор.
У меня есть 5 вариантов
1. Сохраняет правильно - соответствует выводу в лог. Код мне наоборот понятен - это компиляция изначального кода и предложенного ранее вами тут.
2. Возможно нужна для этого метода. Попробую сделать.
3. Ну в данных явно может что-то не так - для этого и процесс с отбором нужен. Данные получены корректно, если об этом речь.
4. Так я об этом и пишу. Может надо как то в параметрах задать автобалансироку?
5. Пока получается так. Может со стационарными данными было бы нормально.
1. Сохраняет правильно - соответствует выводу в лог. Код мне наоборот понятен - это компиляция изначального кода и предложенного ранее вами тут.
2. Возможно нужна для этого метода. Попробую сделать.
3. Ну в данных явно может что-то не так - для этого и процесс с отбором нужен. Данные получены корректно, если об этом речь.
4. Так я об этом и пишу. Может надо как то в параметрах задать автобалансироку?
5. Пока получается так. Может со стационарными данными было бы нормально.
Для CatBoost нужно подать список предикторов, которые подлежат исключению, т.е. те, что не выбраны. Уменьшение значения на -1 нужно так как индекс в том же CatBoost считается от нудя, как и во многих других языках.
Нормализировать легко, просто к данным прменить scale(данные) перед всеми процедурами. Это нормализирует матрицу по столбцам
# Нормализация выбранных предикторов normalized_data <- scale(data_without_excluded) data_without_excluded <- normalized_data
Так допустимо?
В общем результат идентичный, что и без нормализации.