Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2746
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
У меня знак обычных приращений.
Целевая вторична. Проблема целевой в предикторах: можно подобрать к конкретной целевой предикторы или нет.
Знак приращений и знак ZZ не гарантируют прибыль. 5 небольших приращений легко перекроет одно сильное, но в противоположном направлении. Да и 10, например ночных прибыльных баров, тоже перекроется 1-м дневным убыточным (как раз 10% ошибки получится).
Какая линия баланса на новых данных получатся? Надеюсь не горизонтальная с небольшими колебаниями вверх/вниз?
В статьях Владимира тоже ошибка в районе 10-20%, но линия баланса не внушает оптимизма.
Все равно не догоняю. Это не корреляция и не частота использования. Как оценивается предск.сп. при обучении или чем оценивается?
всё та же векторная алгебра, всё тот же feature mapping, убирающий проблему мультиколлинеарности
- т.е. пространственное выделение/проекция по сути тех же "компонент"... расположение в пространстве мультиколлинеарных признаков и даёт поле для применения векторной(!) алгебры, чтобы кустарным способом не избавляться от мультиколлинеарности, лучше её просто принять во внимание (например сведя до 3d-пространства или как захочется и оперировать проекциями, а при надобности и нач. данные можно умножить на эти оценки, типа что-то вроде факторные нагрузки, хотя обычно библиотека сама измеряет этот Mahalanobis distance и даёт результаты)
вобщем, в итоге всё тот же approximation до средней и st.dev - и принятие торговых решений исходя из них
- не было ещё в природе другого моделирования -- просто есть способы решать обычные проблемы (гетероскедастичности, мультиколлинеарности, автокорреляции остатков) в (разно-) n-мерном пространстве...
и никуда не деться от статистики ... решение проблемы корреляции признаков здесь в явном виде...
p.s.
UPDATED: всё-таки этот инструмент (MD) используется для кластеризации/группировки/многомерной_классификации... для выделения outliers в многомерном прстранстве... используется иногда наравне с евклидовым расстоянием... "когда переменные не коррелированны -- расстояние Махаланобиса совпадает с обычным евклидовым расстоянием"... в LDA... в общем тз - описанное мной ранее...
этим постом я ни в коем случае не хотела ставить в один ряд PCA и кластеризацию, просто на памяти было, что и PCA и MD дают возможность избавляться от outliers в многомерном пространстве... но сути мой update не меняет: это всё решения пространственных задач векторной алгеброй для принятия во внимание проблемы мультиколлинеарности (чтобы она не давала искажения/смещения стат. оценок)
Это принципиально, принципиально переобуваться. Нам не нужны модели, которые живут 100 лет. Нужна модель, которая даст предсказание на следующий бар с низкой ошибкой. Далее идет советник, а там свои проблемы с этим предсказанием.
Тут выше проскользнуло, что ценность даже правильного предсказания может быть нулевой.
По мне, ценность предсказания зависит не только от вероятности ошибки, но от самого учителя.
Учитель предсказывает следующий бар или же тренд?
На каком временном периоде ведется предсказание и на каком мы торгуем?
Наш учитель какую целевую прибыль предсказывает?
Как соотносится учитель и спред?
Масса вопросов, к обсуждению которых здесь не преступили.
Это принципиально, принципиально переобуваться. Нам не нужны модели, которые живут 100 лет. Нужна модель, которая даст предсказание на следующий бар с низкой ошибкой. Далее идет советник, а там свои проблемы с этим предсказанием.
Совсем не понимаю. А логика советника тогда какая?
Логика советника определяется учителем.
Но повторное обучение на каждом новом баре - это принципиально. Мы уходим от понятия времени "жизни" модели, так как никакой "жизни" на нестационарных рыках нет. Из-за нестационарности бессмысленны все эти тестирования "вне выборки".
Так какая ошибка на новых данных?
Еще раз: не более 20%. Выше было подробнее.
Еще раз: не более 20%. Выше было подробнее.
Это принципиально, принципиально переобуваться. Нам не нужны модели, которые живут 100 лет. Нужна модель, которая даст предсказание на следующий бар с низкой ошибкой. Далее идет советник, а там свои проблемы с этим предсказанием.