Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3359
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Протсой пример что калибровка даже изначально слабых моделей, дает некоторый результат.
Калибровка - это механизм интерпретации показателей модели, настроенный на определённых данных.
Сама по себе она не меняет выходные значения модели. Вариант, когда после квантования перестановка диапазонов происходит в виду всплеска пропорции класса - я не видел в моделях - всё всегда плавно течёт. Может если на 100 отрезков делить, то тогда такое будет проявлятся...
По сим, калибровка в целом приводит к смещению точки 0,5 - чаще в большую сторону. А значит и без калибровки можно найти такую точку - почему Вам это не удавалось - достаточно непонятно, особенно если у Вас одинаковый тейк профит и стоп лосс у всех позиций. Если не одинаковый - то тут уже совсем иной подход нужен - калибровка по мат ожиданию :)
Калибровка - это механизм интерпретации показателей модели, настроенный на определённых данных.
Сама по себе она не меняет выходные значения модели. Вариант, когда после квантования перестановка диапазонов происходит в виду всплеска пропорции класса - я не видел в моделях - всё всегда плавно течёт. Может если на 100 отрезков делить, то тогда такое будет проявлятся...
По сим, калибровка в целом приводит к смещению точки 0,5 - чаще в большую сторону. А значит и без калибровки можно найти такую точку - почему Вам это не удавалось - достаточно непонятно, особенно если у Вас одинаковый тейк профит и стоп лосс у всех позиций. Если не одинаковый - то тут уже совсем иной подход нужен - калибровка по мат ожиданию :)
я вообще никого не агитирую. Подходов полно, вопрос был на знание МО
всегда остается волшебное лекарство ото всех бед - оптимизднуть все, что шевелитсяя вообще никого не агитирую. Подходов полно, вопрос был на знание МО
Ну, я лично не связывал ответ модели с вероятностью выпадания класса, а воспринимаю, как уверенность модели в определении класса. Уверенность считается по листьям, а листья по выборке обучения. Вот отдельно взятый лист покажет вероятность выпадения класса. Так как отклики не на всех точках выборки у каждого листа имеются, то и получается, что суммирование вероятностей искажено в итоговом ответе модели. Возможно, есть способ коррекции именно на этом уровне - и он мне интересен - в это русло пытался повернуть обсуждение.
На мой взгляд - решение возле группировки листьев по схожим точкам откликов и дальнейшем преобразованием средних суммарных результатов групп...
Ну, я лично не связывал ответ модели с вероятностью выпадания класса, а воспринимаю, как уверенность модели в определении класса. Уверенность считается по листьям, а листья по выборке обучения. Вот отдельно взятый лист покажет вероятность выпадения класса. Так как отклики не на всех точках выборки у каждого листа имеются, то и получается, что суммирование вероятностей искажено в итоговом ответе модели. Возможно, есть способ коррекции именно на этом уровне - и он мне интересен - в это русло пытался повернуть обсуждение.
На мой взгляд - решение возле группировки листьев по схожим точкам откликов и дальнейшем преобразованием средних суммарных результатов групп...
Извините, но я без ссылок на библиотеки, блокноты или статьи, по-прежнему воспринимаю это примерно так
Извините, но я без ссылок на библиотеки, блокноты или статьи, по-прежнему воспринимаю это примерно так
Эх, всё бы вам пакеты...
Эх, всё бы вам пакеты...
После калибровки любого классификатора методом CV, сразу виден потенциал этой модели. Если он ни на что не способен, то вероятности кучкуются вокруг 0.5 после этой процедуры. Хотя до этого он был overconfident. Дальнейшая возня с такой моделью вообще не представляет интерса. Ее нельзя улучшить. То есть ее даже откалибровать нормально нельзя, нет рыбы. Весьма удобно.
нет ни одного "квантрезка", вашими словами, ни одного диапазона или бина, где бы он давал вероятный профит.
Ладно, напоследок, чтобы закрыть тему. Получилось экспортировать в метак калибровку сигмойдой.
Дано: переобученный градиентный бустинг, затем откалиброванный до такого состояния:
При пороге 0.5 все очевидно, сразу видно где ООС:
Запускаю оптимизацию порога и стопов:
Получаю всякие варианты, лучший при порогах 0.75-0.85. Даже немного на новых данных немного вывозит, хотя с порогом 0.5 нет ни одного нормального варика.
Довольно забавная игрушка.
После калибровки любого классификатора методом CV, сразу виден потенциал этой модели. Если он ни на что не способен, то вероятности кучкуются вокруг 0.5 после этой процедуры. Хотя до этого он был overconfident. Дальнейшая возня с такой моделью вообще не представляет интерса. Ее нельзя улучшить. То есть ее даже откалибровать нормально нельзя, нет рыбы. Весьма удобно.
нет ни одного "квантрезка", вашими словами, ни одного диапазона или бина, где бы он давал вероятный профит.
Если это позволяет Вам автоматизировать отсев моделей, то это уже хорошо.
У меня реализована визуализация модели по её показателю вероятности-уверенности с шагом 0,05 и там сразу мне всё видно. Главным является трансформация результата на выборке обучения и иных - там вероятности ползут, поэтому я и говорю о не репрезентативности. Поэтому и калибровку вижу как неэффективную меру именно в нашем случае. Если на ваших моделях смещения сильного от выборки к выборки нет, то это скорее вызывает удивление.
И, я замечу, что как раз недообученная модель будет выдавать вероятности в узком диапазоне.
Нормально обученная модель часто будет врать именно в зонах сильной уверенности - поэтому есть смысл ставить не порог классификации, а окно - к примеру от 0,55 до 0,65 считать возвращаемый класс единицей, а остальное игнорировать. На концах модель хоть и уверена, но часто там очень мало наблюдений, поэтому маленькая статистическая значимость.
Господа спецы МО!
Стоит заморачиваться этим?
Заняться моим алгоритмом - Общее обсуждение - MQL5