Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3335
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Бинарный признак с 0и1 уже нормирован, а остальные нужно тоже нормировать.
Понял ход Вашей мысли, надеюсь.
Но, при равномерном квантовании на те же 32 отрезка, можно же считать, что отрезок "1" - 0, а отрезок "32" - 1. Так и с другими любыми цифрами. Поэтому и не пойму, в чём тут принципальная разница.
Понял ход Вашей мысли, надеюсь.
Но, при равномерном квантовании на те же 32 отрезка, можно же считать, что отрезок "1" - 0, а отрезок "32" - 1. Так и с другими любыми цифрами. Поэтому и не пойму, в чём тут принципальная разница.
Если к 32 сводите, то растягивайте и бинарный 0 и 1 до 0 и 32 (и другие, например с 5 квантами от 0...5 до 0...32). Чтобы все соразмерно было. Ну или сжимайте классически все к единичному гиперкубу (как для нейросетей, которым нормировка обязательна.) Суть та же - в обоих вариантах получим один масштаб.
Метки (учитель, целевая переменная) НЕ могут быть мусорными по определению.
Саныч, не позорься
ты даже еще не начинал изучать, чтобы выражать свое мнение
Ещё забавный факт, я тут подумал, видимо это как раз и есть переобучение, и решил посмотреть на каких индексах произошло изменение класса - думал, что ближе к концу и это как раз хорошая иллюстрация переобучения.
По факту оказалось так
На выборке test
Получается, что это первая тысяча листов (в очередной последовательности добавления в модель) в большей мере не стабильна!
Удивлён.
На выборке exam
Ещё забавный факт, я тут подумал, видимо это как раз и есть переобучение, и решил посмотреть на каких индексах произошло изменение класса - думал, что ближе к концу и это как раз хорошая иллюстрация переобучения.
По факту оказалось так
На выборке test
Получается, что это первая тысяча листов (в очередной последовательности добавления в модель) в большей мере не стабильна!
Удивлён.
На выборке exam
Для всех остальных деревьев, учителем является ошибка предсказания, т.е. (Y - Pred). Да еще и с коэффициентом eta = 0.1...0.001. Влияние листьев этих деревьев - незначительно, они лишь корректируют. Что вы и показали (их незначительность).
GPT научить )
Хорошо, добавим индикатор Envelopes (оболочки) в наш анализ. Индикатор Envelopes представляет собой линии, расположенные выше и ниже скользящего среднего. Обычно они находятся на фиксированном процентном расстоянии от этого скользящего среднего.
Envelopes для последнего месяца (ноябрь 2023):
Общий тренд с использованием RSI, Bollinger Bands и Envelopes:
Также, учтем, что сигналы от различных индикаторов могут быть конфликтными, и важно анализировать их вместе.
Давайте продолжим с расчетами и анализом.
GPT научить )
Хорошо, добавим индикатор Envelopes (оболочки) в наш анализ. Индикатор Envelopes представляет собой линии, расположенные выше и ниже скользящего среднего. Обычно они находятся на фиксированном процентном расстоянии от этого скользящего среднего.
Envelopes для последнего месяца (ноябрь 2023):
Общий тренд с использованием RSI, Bollinger Bands и Envelopes:
Также, учтем, что сигналы от различных индикаторов могут быть конфликтными, и важно анализировать их вместе.
Давайте продолжим с расчетами и анализом.
Вы же бустнгом считаете?
Вы совершенно правы, речь идёт о CatBoost!
Там только первое дерево обучается по меткам исходного учителя.
Для всех остальных деревьев, учителем является ошибка предсказания, т.е. (Y - Pred).
Действительно, так следует из теории.
Да еще и с коэффициентом eta = 0.1...0.001
Коэффициент "скорости обучения", во всяком случае в CatBoost, фиксируется для всех деревьев.
Влияние листьев этих деревьев - незначительно, они лишь корректируют. Что вы и показали (их незначительность).
Вы действительно можете объяснить, как расставляются коэффициенты листьям в CatBoost?
Есть моменты, которые я плохо понимаю.
Однако, я продемонстрировал изменение "класса" в листьях, т.е. фактически 40% листьев оказалось тянут общий итог не в ту сторону на новых данных.
Вы действительно можете объяснить, как расставляются коэффициенты листьям в CatBoost?
Хотите, чтобы я вам перекопал код катбуста и дал точный ответ? Я копаю только то, что мне интересно. Катбустом не пользуюсь.
Учебный и простой код буста тут https://habr.com/ru/companies/vk/articles/438562/Про коэффициенты листьям впервые слышу - что это?
Сообщаю, что на отдельной выборке test - 7467, а на exam - 7177, но там есть не малое число листьев без активаций вообще - сразу не посчитал.
Так выглядит распределение сменивших класс листьев по их значению для выборки test
а это exam.
А это разбивка на классы - их три, третий "-1" - отсутствие активации.
Для выборки train
Для выборки test
Для выборки exam
В общем видно, что веса листьев больше не соответствуют логике класса - ниже график с выборки test - уже нет чёткого вектора.
В общем, аппроксимирует данный способ обучения что угодно, но вот за качество предикторов он не ручается.
Вообще, допускаю, что отчётливые "столбики" на графике выше - весьма схожие листья по месту и частоте активации.
Сложно обсуждать то, о чём не знаешь. Поэтому, могу только порадоваться за Ваши успехи. Если бы у меня был такой метод, то я бы использовал его :)
Мой метод, пока, не даёт таких качественных результатов, но он достаточно хорошо паралеллиться.
А вы не задумывались почему так происходит?