Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3357
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Пример уже описал выше. Есть классификатор, который проходит оос, но доходности распределены 60/40. Вам это не нравится, вы поднимаете порог принятия решений, но ситуация не меняется, а иногда становится еще хуже. Вы чешете репу, почему так.
Дано объяснение, почему так: потому что в случае реальной оценки вероятностей ситуация должна меняться.
Дано решение.
Всё же хотелось бы отметить, что калибровка не будет панацеей и не является бесплатной - нужны хорошие свойства у имеющегося классификатора. Чтобы не вдаваться в объяснения, приведу цитату из второй вашей ссылки на ШАД. "В целом, можно показать, что этот метод хорошо работает, если для каждого из истинных классов предсказанные вероятности распределы нормально с одинаковыми дисперсиями." Это про калибровку Платта, но и для других тоже наверняка должны выполняться какие-нибудь условия.
Собственно, всё как в матстате - вероятностные свойства используемой модели должны соответствовать изучаемым данным.
Всё же хотелось бы отметить, что калибровка не будет панацеей и не является бесплатной - нужны хорошие свойства у имеющегося классификатора. Чтобы не вдаваться в объяснения, приведу цитату из второй вашей ссылки на ШАД. "В целом, можно показать, что этот метод хорошо работает, если для каждого из истинных классов предсказанные вероятности распределы нормально с одинаковыми дисперсиями." Это про калибровку Платта, но и для других тоже наверняка должны выполняться какие-нибудь условия.
Собственно, всё как в матстате - вероятностные свойства используемой модели должны соответствовать изучаемым данным.
Ну конечно, это просто способ привести аутпуты в вероятностый вид, потому что использование сырых вероятностей модели вообще бесполезно.
Обсуждали эту тему ещё во времена Свинозавра, Математа, Гранита и Метадрайвера, то есть очень давно.
Не видел у них этой темы, возможно просто пропустил (раньше больше читал Киберпаука). Речь про модели, в которых в качестве выходов получаются вероятностные распределения, а не конкретные числовые значения. Не сказать что это какой-то совсем уж новый подход, но в последние годы есть заметный подъём интереса к этой теме.
Ну как же, было множество попыток, правда я не знаю их успешных публичных результатов. Самое простое, что делалось - трактовать выход единичного нейрона как вероятность селл/бай в диапазоне [-1.0;1.0], ничего хорошего из этого не получилось, применение порога не помогает.
Другое дело, что можно применять распределение выходов нейрона как вероятность, но я не видел что бы это кто-то делал. К примеру, при одних и тех же сигналах селл/бай выходного нейрона сети при обучении, распределение значений может сильно отличаться, соответственно и поведение на OOS будет разным.
К тому же, я давно показывал графики обучения и поведения на OOS, где линия идёт не переламываясь, конечно без спреда, причем на вход подавались приращения простых машек с разных тайфреймов, элементарщина. А тут вот некоторые гении вдруг сделали "гениальный" вывод, что спред влияет на поведение на OOS.
Ну как же, было множество попыток, правда я не знаю их успешных публичных результатов. Самое простое, что делалось - трактовать выход единичного нейрона как вероятность селл/бай в диапазоне [-1.0;1.0], ничего хорошего из этого не получилось, применение порога не помогает.
Другое дело, что можно применять распределение выходов нейрона как вероятность, но я не видел что бы это кто-то делал. К примеру, при одних и тех же сигналах селл/бай выходного нейрона сети при обучении, распределение значений может сильно отличаться, соответственно и поведение на OOS будет разным.
К тому же, я давно показывал графики обучения и поведения на OOS, где линия идёт не переламываясь, конечно без спреда, причем на вход подавались приращения простых машек с разных тайфреймов, элементарщина. А тут вот некоторые гении вдруг сделали "гениальный" вывод, что спред влияет на поведение на OOS.
Всё же, классификация - это относительно простой частный случай, в котором распределение выхода дискретно и потому всё относительно легко сводится к обычной "точечной", числовой задаче МО.
Интересен более широкий подход, с моделями для которых выходом служит не число, а любое (в разумных пределах, конечно) распределение. Примером может служить МО используемое в теории надёжности (где изучается распределение срока работы) или в вероятностном прогнозе погоды (когда строится вероятностное распределение для возможного количества осадков, например).
...
Интересен более широкий подход, с моделями для которых выходом служит не число, а любое (в разумных пределах, конечно) распределение. Примером может служить МО используемое в теории надёжности (где изучается распределение срока работы) или в вероятностном прогнозе погоды (когда строится вероятностное распределение для возможного количества осадков, например).
Формирование распределения вероятности во время обучения, а не после.
А после обучения какой вообще смысл что-то делать? Новые знания у гипотетического машинного дурачка не появятся, если ему подкручивать отвёрткой мозги уже после обучения.
Пример уже описал выше. Есть классификатор, который проходит оос, но доходности распределены 60/40. Вам это не нравится, вы поднимаете порог принятия решений, но ситуация не меняется, а иногда становится еще хуже. Вы чешете репу, почему так.
Дано объяснение, почему так: потому что в случае реальной оценки вероятностей ситуация должна меняться.
Дано решение.
Как Вам удается находить таких дебилов как этот Карпов?
У человека каша в голове. Человек НЕ способен последовательно изложить мысль. Просто жуть!
С первых минут просто утверждает, что классификатор выдает НЕ вероятность. А где взять вероятность, не используя то, что выдает классификатор?