Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3359

 
Maxim Dmitrievsky #:

Протсой пример что калибровка даже изначально слабых моделей, дает некоторый результат.

Калибровка - это механизм интерпретации показателей модели, настроенный на определённых данных.

Сама по себе она не меняет выходные значения модели. Вариант, когда после квантования перестановка диапазонов происходит в виду всплеска пропорции класса - я не видел в моделях - всё всегда плавно течёт. Может если на 100 отрезков делить, то тогда такое будет проявлятся...

По сим, калибровка в целом приводит к смещению точки 0,5 - чаще в большую сторону. А значит и без калибровки можно найти такую точку - почему Вам это не удавалось - достаточно непонятно, особенно если у Вас одинаковый тейк профит и стоп лосс у всех позиций. Если не одинаковый - то тут уже совсем иной подход нужен - калибровка по мат ожиданию :)

 
Aleksey Vyazmikin #:

Калибровка - это механизм интерпретации показателей модели, настроенный на определённых данных.

Сама по себе она не меняет выходные значения модели. Вариант, когда после квантования перестановка диапазонов происходит в виду всплеска пропорции класса - я не видел в моделях - всё всегда плавно течёт. Может если на 100 отрезков делить, то тогда такое будет проявлятся...

По сим, калибровка в целом приводит к смещению точки 0,5 - чаще в большую сторону. А значит и без калибровки можно найти такую точку - почему Вам это не удавалось - достаточно непонятно, особенно если у Вас одинаковый тейк профит и стоп лосс у всех позиций. Если не одинаковый - то тут уже совсем иной подход нужен - калибровка по мат ожиданию :)

я вообще никого не агитирую. Подходов полно, вопрос был на знание МО

всегда остается волшебное лекарство ото всех бед - оптимизднуть все, что шевелится
 
Maxim Dmitrievsky #:
я вообще никого не агитирую. Подходов полно, вопрос был на знание МО

Ну, я лично не связывал ответ модели с вероятностью выпадания класса, а воспринимаю, как уверенность модели в определении класса. Уверенность считается по листьям, а листья по выборке обучения. Вот отдельно взятый лист покажет вероятность выпадения класса. Так как отклики не на всех точках выборки у каждого листа имеются, то и получается, что суммирование вероятностей искажено в итоговом ответе модели. Возможно, есть способ коррекции именно на этом уровне - и он мне интересен - в это русло пытался повернуть обсуждение.

На мой взгляд - решение возле группировки листьев по схожим точкам откликов и дальнейшем преобразованием средних суммарных результатов групп...

 
Aleksey Vyazmikin #:

Ну, я лично не связывал ответ модели с вероятностью выпадания класса, а воспринимаю, как уверенность модели в определении класса. Уверенность считается по листьям, а листья по выборке обучения. Вот отдельно взятый лист покажет вероятность выпадения класса. Так как отклики не на всех точках выборки у каждого листа имеются, то и получается, что суммирование вероятностей искажено в итоговом ответе модели. Возможно, есть способ коррекции именно на этом уровне - и он мне интересен - в это русло пытался повернуть обсуждение.

На мой взгляд - решение возле группировки листьев по схожим точкам откликов и дальнейшем преобразованием средних суммарных результатов групп...

Извините, но я без ссылок на библиотеки, блокноты или статьи, по-прежнему воспринимаю это примерно так


 
Maxim Dmitrievsky #:

Извините, но я без ссылок на библиотеки, блокноты или статьи, по-прежнему воспринимаю это примерно так


Эх, всё бы вам пакеты...

 
Aleksey Vyazmikin #:

Эх, всё бы вам пакеты...

После калибровки любого классификатора методом CV, сразу виден потенциал этой модели. Если он ни на что не способен, то вероятности кучкуются вокруг 0.5 после этой процедуры. Хотя до этого он был overconfident. Дальнейшая возня с такой моделью вообще не представляет интерса. Ее нельзя улучшить. То есть ее даже откалибровать нормально нельзя, нет рыбы.  Весьма удобно.

нет ни одного "квантрезка", вашими словами, ни одного диапазона или бина, где бы он давал вероятный профит.

 

Ладно, напоследок, чтобы закрыть тему. Получилось экспортировать в метак калибровку сигмойдой.

Дано: переобученный градиентный бустинг, затем откалиброванный до такого состояния:


При пороге 0.5 все очевидно, сразу видно где ООС:

Запускаю оптимизацию порога и стопов:

Получаю всякие варианты, лучший при порогах 0.75-0.85. Даже немного на новых данных немного вывозит, хотя с порогом 0.5 нет ни одного нормального варика.

Довольно забавная игрушка.

 
Maxim Dmitrievsky #:

После калибровки любого классификатора методом CV, сразу виден потенциал этой модели. Если он ни на что не способен, то вероятности кучкуются вокруг 0.5 после этой процедуры. Хотя до этого он был overconfident. Дальнейшая возня с такой моделью вообще не представляет интерса. Ее нельзя улучшить. То есть ее даже откалибровать нормально нельзя, нет рыбы.  Весьма удобно.

нет ни одного "квантрезка", вашими словами, ни одного диапазона или бина, где бы он давал вероятный профит.

Если это позволяет Вам автоматизировать отсев моделей, то это уже хорошо.

У меня реализована визуализация модели по её показателю вероятности-уверенности с шагом 0,05 и там сразу мне всё видно. Главным является трансформация результата на выборке обучения и иных - там вероятности ползут, поэтому я и говорю о не репрезентативности. Поэтому и калибровку вижу как неэффективную меру именно в нашем случае. Если на ваших моделях смещения сильного от выборки к выборки нет, то это скорее вызывает удивление.

И, я замечу, что как раз недообученная модель будет выдавать вероятности в узком диапазоне.

Нормально обученная модель часто будет врать именно в зонах сильной уверенности - поэтому есть смысл ставить не порог классификации, а окно - к примеру от 0,55 до 0,65 считать возвращаемый класс единицей, а остальное игнорировать. На концах модель хоть и уверена, но часто там очень мало наблюдений, поэтому маленькая статистическая значимость.

 
Пока он еще в первозданном виде, успейте успеть. Никто не понимает, что вы говорите.
Щас же матерые МОшники налетят, букву на букве не оставят.
 

Господа спецы МО!

Стоит заморачиваться этим?

Заняться моим алгоритмом - Общее обсуждение - MQL5

Механика рынка и Машинное Обучение (ИИ). - Заняться моим алгоритмом.
Механика рынка и Машинное Обучение (ИИ). - Заняться моим алгоритмом.
  • 2023.12.26
  • www.mql5.com
вероятно компилятор с оптимизацией на си быстрее проги на асемблере. Не уверен вообще что это заработок оптимальным образом. Это оптимальный метод дешифровки биржевого позволяет четко описать механику изменения цены
Причина обращения: