Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1211
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Уважаемые форумчане, подскажите плиз, ибо читать 1200 страниц лень, кто-нибудь здесь пытался реализовать машинное обучение на основе результатов торговли по закрытымордерам эксперта?грубо говоря нужно научить алгоритм искать и определять периоды в которых эксперт перестает торговать в плюс как до некоторого момента?
https://www.mql5.com/ru/code/22710
Мартин и просадка - это два неразлучных друга
И как не крути тренд/флет, все равно так будет всегда.
PS
Ссылку на учебник скинь пжста?
Мартин и просадка - это два неразлучных друга
И как не крути тренд/флет, все равно так будет всегда.
PS
Ссылку на учебник скинь пжста?
Предварительные результаты (так-как ещё не все предикторы сделал, что запланировал) по созданию модели, определяющей прибыльные модели (1) оказались не такими плохими, вот разбивка по y - прибыль на независимой выборке, а по x - 1 - TP+FP , а 0 - TN+FN.
Целевая была - прибыль от 2000, ну достичь пока результата не удалось, зато в зону убытка попало всего 3 модели из 960, что уже не плохое достижение.
Таблица сопряженности
Среднее значение без классификации финансового результата 1318,83, после классификации 1 - 2221,04 и 0 - 1188,66, таким образом после классификации средний финансовый результат моделей увеличился на 68%, что уже не плохо.
Однако, пока не ясно, сможет ли эта модель работать с моделями, построенными на других данных - пока не ясно.
Обучение по Logloss - удивительно, что тестовая выборка (по которой происходит автоматический отбор модели - не выборка для обучения) и независимая (экзаменационная) Logloss_e почти идеально сходятся.
так же как и Recall
А вот показатель Precision меня удивил, так как по умолчанию обычно по нему я выбираю модель, то у меня не шло обучение из-за того, что он сразу равнялся 1 на первом дереве.
А вот разные метрики на тесте и экзамене - результат меня сильно удивляет - очень маленькая дельта.
Из графиков конечно видно, что модель переобучена и можно было прекращать обучение на 3500 деревьев, а то и раньше, но я не занимался настройкой модели и данные фактически с настройками по умолчанию.
Ошибка где—то, не бывает так ровно на тест и трейн. Ну или грааль, тогда делитесь :D
Не грааль, тут поспели ещё 100к моделей и на них результат не очень - да полностью убыточные режет неплохо - всего 2% попало, но и прибыльных моделей зарезал слишком много.
Я так думаю, что это эффект замкнутой системы, т.е. некой стационарности получился, так-как модели похожи друг на друга, то просто удалось выделить их признаки хорошо, поэтому такое малое расхождение между результатами.
Доделываю запланированные предикторы, и вот какая мысль меня мучает - может сразу убирать те модели, которые я бы не выбрал сам (большие просадки сильная диспропорция покупок и продаж, очень малое распределение вероятности и иное), тогда уменьшится информация о явно плохих моделях, но будет больше акцент на выбор модели из гипотетически хороших (естественно, что на экзаменационной выборке у хорошей модели на тесте могут быть плохие результаты). Вот и не знаю, стоит резать выборку или нет, как считаете?
Ну и ещё откажусь от голой прибыли, как целевой - буду отбирать модели по ряду критериев - увы, это уменьшит целевые "1", но может появятся более глубокие связи, которые позволят оценить модель по результатам теста.
Уважаемые форумчане, подскажите плиз, ибо читать 1200 страниц лень, кто-нибудь здесь пытался реализовать машинное обучение на основе результатов торговли по закрытымордерам эксперта?грубо говоря нужно научить алгоритм искать и определять периоды в которых эксперт перестает торговать в плюс как до некоторого момента?
Читать эту тему не нужно, уж поверьте, замусорите себе сознание, попробуйте сделать сразу как здесь СЛУЧАЙНЫЕ ЛЕСА ПРЕДСКАЗЫВАЮТ ТРЕНДЫ это отличный вводный курс по применению МО в алготорговле, а вообще МО - очень обширная тема, по сути МО - это расширение классической статистики, в основном эвристиками и инженерными поделкам, так что это больше не наука а техногенное шаманство, что с одной стороны интересно но с другой чревато спекуляциями и злоупотреблениями. Часто бывало что трейдер за индикаторостроением забывал чем он собственно изначально занимался, а МО это бездонная дыра, нырнёшь и не вынырнешь, кроме того чтобы реально им заниматься а не дрочить параметры библиотек и пакетов, нужно иметь хороший математический бэграунд, хотя бы бакалавра тех специальности.
Не грааль, тут поспели ещё 100к моделей и на них результат не очень - да полностью убыточные режет неплохо - всего 2% попало, но и прибыльных моделей зарезал слишком много.
Я так думаю, что это эффект замкнутой системы, т.е. некой стационарности получился, так-как модели похожи друг на друга, то просто удалось выделить их признаки хорошо, поэтому такое малое расхождение между результатами.
Доделываю запланированные предикторы, и вот какая мысль меня мучает - может сразу убирать те модели, которые я бы не выбрал сам (большие просадки сильная диспропорция покупок и продаж, очень малое распределение вероятности и иное), тогда уменьшится информация о явно плохих моделях, но будет больше акцент на выбор модели из гипотетически хороших (естественно, что на экзаменационной выборке у хорошей модели на тесте могут быть плохие результаты). Вот и не знаю, стоит резать выборку или нет, как считаете?
Ну и ещё откажусь от голой прибыли, как целевой - буду отбирать модели по ряду критериев - увы, это уменьшит целевые "1", но может появятся более глубокие связи, которые позволят оценить модель по результатам теста.
ну конечно если там явный бесперспективняк то можно убрать
ну конечно если там явный бесперспективняк то можно убрать
Спасибо за мнение. Не ясно "перспективняк" или нет, но в здравом уме я бы такую модель не выбрал, которая допустим просаживается на 50%, хоть и легко потом выходит в прибыль.