Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3357

 
Maxim Dmitrievsky #:

Пример уже описал выше. Есть классификатор, который проходит оос, но доходности распределены 60/40. Вам это не нравится, вы поднимаете порог принятия решений, но ситуация не меняется, а иногда становится еще хуже. Вы чешете репу, почему так.

Дано объяснение, почему так: потому что в случае реальной оценки вероятностей ситуация должна меняться.

Дано решение.


Всё же хотелось бы отметить, что калибровка не будет панацеей и не является бесплатной - нужны хорошие свойства у имеющегося классификатора. Чтобы не вдаваться в объяснения, приведу цитату из второй вашей ссылки на ШАД. "В целом, можно показать, что этот метод хорошо работает, если для каждого из истинных классов предсказанные вероятности распределы нормально с одинаковыми дисперсиями." Это про калибровку Платта, но и для других тоже наверняка должны выполняться какие-нибудь условия.

Собственно, всё как в матстате - вероятностные свойства используемой модели должны соответствовать изучаемым данным.

 
Aleksey Nikolayev #:

Всё же хотелось бы отметить, что калибровка не будет панацеей и не является бесплатной - нужны хорошие свойства у имеющегося классификатора. Чтобы не вдаваться в объяснения, приведу цитату из второй вашей ссылки на ШАД. "В целом, можно показать, что этот метод хорошо работает, если для каждого из истинных классов предсказанные вероятности распределы нормально с одинаковыми дисперсиями." Это про калибровку Платта, но и для других тоже наверняка должны выполняться какие-нибудь условия.

Собственно, всё как в матстате - вероятностные свойства используемой модели должны соответствовать изучаемым данным.

Ну конечно, это просто способ привести аутпуты в вероятностый вид, потому что использование сырых вероятностей модели вообще бесполезно.

 
Обсусждали давно, по итогу пришли к переоптимизации ф-й :)
 
Andrey Dik #:
Обсуждали эту тему ещё во времена Свинозавра, Математа, Гранита и Метадрайвера, то есть очень давно.
Не видел у них этой темы, возможно просто пропустил (раньше больше читал Киберпаука). Речь про модели, в которых в качестве выходов получаются вероятностные распределения, а не конкретные числовые значения. Не сказать что это какой-то совсем уж новый подход, но в последние годы есть заметный подъём интереса к этой теме.
 
Aleksey Nikolayev #:
Не видел у них этой темы, возможно просто пропустил (раньше больше читал Киберпаука). Речь про модели, в которых в качестве выходов получаются вероятностные распределения, а не конкретные числовые значения. Не сказать что это какой-то совсем уж новый подход, но в последние годы есть заметный подъём интереса к этой теме.

Ну как же, было множество попыток, правда я не знаю их успешных публичных результатов. Самое простое, что делалось - трактовать выход единичного нейрона как вероятность селл/бай в диапазоне [-1.0;1.0], ничего хорошего из этого не получилось, применение порога не помогает.

Другое дело, что можно применять распределение выходов нейрона как вероятность, но я не видел что бы это кто-то делал. К примеру, при одних и тех же сигналах селл/бай выходного нейрона сети при обучении, распределение значений может сильно отличаться, соответственно и поведение на OOS будет разным.

К тому же, я давно показывал графики обучения и поведения на OOS, где линия идёт не переламываясь, конечно без спреда, причем на вход подавались приращения простых машек с разных тайфреймов, элементарщина. А тут вот некоторые гении вдруг сделали "гениальный" вывод, что спред влияет на поведение на OOS.

 
Andrey Dik #:

Ну как же, было множество попыток, правда я не знаю их успешных публичных результатов. Самое простое, что делалось - трактовать выход единичного нейрона как вероятность селл/бай в диапазоне [-1.0;1.0], ничего хорошего из этого не получилось, применение порога не помогает.

Другое дело, что можно применять распределение выходов нейрона как вероятность, но я не видел что бы это кто-то делал. К примеру, при одних и тех же сигналах селл/бай выходного нейрона сети при обучении, распределение значений может сильно отличаться, соответственно и поведение на OOS будет разным.

К тому же, я давно показывал графики обучения и поведения на OOS, где линия идёт не переламываясь, конечно без спреда, причем на вход подавались приращения простых машек с разных тайфреймов, элементарщина. А тут вот некоторые гении вдруг сделали "гениальный" вывод, что спред влияет на поведение на OOS.

Всё же, классификация - это относительно простой частный случай, в котором распределение выхода дискретно и потому всё относительно легко сводится к обычной "точечной", числовой задаче МО.

Интересен более широкий подход, с моделями для которых выходом служит не число, а любое (в разумных пределах, конечно) распределение. Примером может служить МО используемое в теории надёжности (где изучается распределение срока работы) или в вероятностном прогнозе погоды (когда строится вероятностное распределение для возможного количества осадков, например).

 
Aleksey Nikolayev #:

...

Интересен более широкий подход, с моделями для которых выходом служит не число, а любое (в разумных пределах, конечно) распределение. Примером может служить МО используемое в теории надёжности (где изучается распределение срока работы) или в вероятностном прогнозе погоды (когда строится вероятностное распределение для возможного количества осадков, например).


об этом я, собственно, и сказал, пытаться использовать распределение, а не сами значения выхода в качестве классификатора.
 
Вероятности получают из уже обученной модели. Иначе вероятностям чего вы ее будете учить? Если вероятности известны, зачем обучать?

Моменты распределений в регрессивных моделях для оценки дов. интервалов? Не, не слышали? :) много напрогнозировали ими?

Сколько там, 20 лет назад вы уже все знали, но все стеснялись сказать? Немалый срок, чтобы уйти от переоптимизации ф-й.

Печаль какая-то, 20 лет..
 

Формирование распределения вероятности во время обучения, а не после.

А после обучения какой вообще смысл что-то делать? Новые знания у гипотетического машинного дурачка не появятся, если ему подкручивать отвёрткой мозги уже после обучения.

 
Maxim Dmitrievsky #:

Пример уже описал выше. Есть классификатор, который проходит оос, но доходности распределены 60/40. Вам это не нравится, вы поднимаете порог принятия решений, но ситуация не меняется, а иногда становится еще хуже. Вы чешете репу, почему так.

Дано объяснение, почему так: потому что в случае реальной оценки вероятностей ситуация должна меняться.

Дано решение.


Как Вам удается находить таких дебилов как этот Карпов? 

У человека каша в голове. Человек НЕ способен последовательно изложить мысль. Просто жуть!

С первых минут просто утверждает, что классификатор выдает НЕ вероятность. А где взять вероятность, не используя то, что выдает классификатор?

Причина обращения: