Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3356
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
https://education.yandex.ru/handbook/ml/article/veroyatnostnyj-podhod-v-ml
https://education.yandex.ru/handbook/ml/article/kak-ocenivat-veroyatnosti
Вероятностный подход - это хорошо и правильно. У нас всегда будет сильный шум и суть в том, чтобы искать отличия от того, каким он был бы при СБ. Одной лишь дисперсии шума будет для этого недостаточно.
ИМХО, задача классификации не вполне подходит, поскольку существенно отбрасывает информацию. Нужно что-то вроде того чтобы смотреть на распределение величины движения цены в нужном направлении и моделировать как это распределение зависит от признаков, а потом уже строить ТС по виду этого распределения (если в нём есть отличия от того что было бы при СБ).
Опять какие-то новые определения.
Не выдержал.
Не бывает абстрактной, читай эталонной, идеальной, вероятности, не привязанной к случайному процессу.
Не бывает.
Вероятность монеты, которую побрасывают и т.д.
Поэтому любой классификатор дает вероятность, которая характеризует именно этот конкретный классификатор, что дает нужную нам характеристику - ошибку предсказания. Другой классификатор даст другие вероятности с соответствующей ошибкой предсказания классов.
В зависимости от предикторов и связанных с ними меток, а также балансировки классов, возникает проблема установки порога деления вероятностей на классы. Инструменты для этой операции, называемой "калибровкой", даны выше. Можно это делать и по колхозному.
В любой случае можно существенно уменьшить ошибку предсказания именно для тех вероятностей, которые дал конкретный классификатор, потому как нет в природе других вероятностей при работе с конкретным классификатором. Не нравятся вероятности - работайте с классификатором или же занимайтесь калибровкой. В этом конкретном процессе нет места !идеальным" вероятностям, которых не бывает теоретически.
Ясно одно, что деление на классы по порогу 0.5 крайне сомнительно и работает в редких случаях.
Не выдержал.
Не выдержал.
Не бывает абстрактной, читай эталонной, идеальной, вероятности, не привязанной к случайному процессу.
Не бывает.
Вероятность монеты, которую побрасывают и т.д.
Поэтому любой классификатор дает вероятность, которая характеризует именно этот конкретный классификатор, что дает нужную нам характеристику - ошибку предсказания. Другой классификатор даст другие вероятности с соответствующей ошибкой предсказания классов.
В зависимости от предикторов и связанных с ними меток, а также балансировки классов, возникает проблема установки порога деления вероятностей на классы. Инструменты для этой операции, называемой "калибровкой", даны выше. Можно это делать и по колхозному.
В любой случае можно существенно уменьшить ошибку предсказания именно для тех вероятностей, которые дал конкретный классификатор, потому как нет в природе других вероятностей при работе с конкретным классификатором. Не нравятся вероятности - работайте с классификатором или же занимайтесь калибровкой. В этом конкретном процессе нет места !идеальным" вероятностям, которых не бывает теоретически.
Ясно одно, что деление на классы по порогу 0.5 крайне сомнительно и работает в редких случаях.
Там речь про обычные для матстата ошибки при использовании неправильной вероятностной модели. Например, если в регрессии шум на самом деле распределён по Лапласу, а мы считаем как для Гаусса, то очевидно будут ошибки.
PS. Собственно там вся суть в возврате к вероятностным истокам МО, которое, кстати, в девичестве называлось (по крайней мере в СССР) статистическим обучением)
Пример уже описал выше. Есть классификатор, который проходит оос, но доходности распределены 60/40. Вам это не нравится, вы поднимаете порог принятия решений, но ситуация не меняется, а иногда становится еще хуже. Вы чешете репу, почему так.
Дано объяснение, почему так: потому что в случае реальной оценки вероятностей ситуация должна меняться.
Дано решение.
Пример уже описал выше. Есть классификатор, который проходит оос, но доходности распределены 60/40. Вам это не нравится, вы поднимаете порог принятия решений, но ситуация не меняется, а иногда становится еще хуже. Вы чешете репу, почему так.
Дано объяснение, почему так: потому что в случае реальной оценки вероятностей ситуация должна меняться.
Дано решение