Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3344
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
А что вы хотите? Почти с рандомом работаем. Это вам не спрос на мороженое в зависимости от температуры исследовать, как в Козуле)))
хочу zeekr 001
Есть что-то от яндекса
Спасибо, качественная и интересная статья с обширной литературой.
Вроде бы у них не рассматривается тот вид неопределённости, который интересен - вероятностная зависимость выхода от признаков. У них изучаются два других её вида - неопределённости связанные с неточностями признаков и параметров. Названы они красиво - aleatoric и epistemic uncertainty) Нужно по аналогии наш вариант назвать target uncertainty)
Имхо, в нашем случае "ошибки измерения" признаков отсутствуют в принципе, а неопределённость параметров модели плохо отделима от нашей "целевой неопределённости".
А что вы хотите? Почти с рандомом работаем. Это вам не спрос на мороженое в зависимости от температуры исследовать, как в первой книге по Козулу, которую тут полгода назад скидывали)))
Вот и нужно пытаться аккуратно измерять зависимость этого "Почти" от признаков)
Спасибо, качественная и интересная статья с обширной литературой.
Вроде бы у них не рассматривается тот вид неопределённости, который интересен - вероятностная зависимость выхода от признаков. У них изучаются два других её вида - неопределённости связанные с неточностями признаков и параметров. Названы они красиво - aleatoric и epistemic uncertainty) Нужно по аналогии наш вариант назвать target uncertainty)
Имхо, в нашем случае "ошибки измерения" признаков отсутствуют в принципе, а неопределённость параметров модели плохо отделима от нашей "целевой неопределённости".
Мне показалось, что сумма этих неопределенностей и должна давать target uncertainty. Но я сильно не разбирался.
Подход примерно как в козуле через мета лернеры, но здесь еще предложен способ разобрать одну модель и использовать как ансамбль усеченных классификаторов, вместо ансамбля из нескольких классификаторов, для скорости.
Не понимаю, откуда взялась оценка по R квадрат?
Мне раньше казалось, что эта оценка применима в регрессиях, если все коэффициенты регрессии знАчимы. В противном R квадрат не существует....
Не понимаю, откуда взялась оценка по R квадрат?
Мне раньше казалось, что эта оценка применима в регрессиях, если все коэффициенты регрессии знАчимы. В противном R квадрат не существует....
ее просто тестер показывает, для быстрого сравнения разных кривых балансов подходит
она больше нигде не участвует
Они все работают 50/50
Они все работают 50/50
Это только кажется..
Если забить в скрипт фигуру и посмотреть статистику будущего, то распределение вверх/вниз, как по количеству свечей, так и по количеству пунктов стремится к 50 на 50.
Это что касается фигур из свечей (соотношения HLC друг с другом), а вневременные не считал, т.к. их слишком мало выходит для статистики хотя бы в 1000 фигур.
А так, если в 2022 году фигура показала форвард в 55% свечей вверх и среднюю величину свечей на 5-10% выше, чем в сел, то в 2023-м отработка всё равно будет 50 на 50, без каких-либо привилегий.