Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1227
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ну вот опять...
Не надоело тебе народ пужать своими триллиардами и инсайдами, знаешь есть пословица "шавка лает, а караван идёт", ненужны нам твои обиды на ДЦ где ты оставил свои последние сто баксов, мир не справедлив, тебе не повезло, а мне повезёт, я с сотни сделаю мильён, а если нет так ещё попробую, пока не получится.
Подружке поплачься или мамке, не мешай нам мечтать о яхтах и островах и шаг за шагом воплощать свои мечты в реальность. Развелось тут блин всяких "гуру" которые даже не знают от куда Воронова скачать и как отличить тренд от флета, сгиньте нечисти, возвращайтесь в ад.
Знаю что никто не пробовал, но вдруг:
сортировка сделок по профиту/просадке, соответственно при разделении на классы наиболе прибыльным сделкам давать больше вероятности, наиболее малоприбыльным в районе 0.5. Т.е. просто отсортировать сделки по эффективности и присвоить им вероятности, понятно что наиболее эффективных сделок окажется меньше, а шумовых больше.
стоит экспериментировать? ошибка должна уменьшиться?
Знаю что никто не пробовал, но вдруг:
сортировка сделок по профиту/просадке, соответственно при разделении на классы наиболе прибыльным сделкам давать больше вероятности, наиболее малоприбыльным в районе 0.5. Т.е. просто отсортировать сделки по эффективности и присвоить им вероятности, понятно что наиболее эффективных сделок окажется меньше, а шумовых больше.
стоит экспериментировать? ошибка должна уменьшиться?
1 2 От части да, модное явление, но это моё мнение, само по себе "глубокое обучение" это собственно не сама регрессия\классификация, а способ извлечения достаточно простых иерархически организованных признаков из данных определенного типа, например пиксельные картинки рисуемые отраженным светом, поступающие в камеру из "реального мира", сами по себе как яркости пикселей, очень плохие признаки, если их тупо как есть запихнуть в классификатор, а в CNN происходит своего рода "декорреляция соседних пикселей" и сжатие размерности, в несколько проходов, похожее можно сделать если кластеризовать картинки побитые на маленькие форагменты, вообще "глубокое обучение" это вид кластеризации во много проходов а затем подача "высокоуровневых фичей" в обычный классификатор. Тема конечно очень интересная, но её пора развивать теоретически, а не только "ананировать" с нейросетями разной архитектуры обучаемых жудко медленным бэкпропом. Но повторюсь я пока не смог подружить диплернинг с рынком, хотя вопрос открытый, так как пока в этом направлении очень накладно делать эксперименты, как Вы верно заметили.
3 в листья деревьев не обязательно помещать константы, можно линейные модели, или посложнее, тогда будет "экстраполяция" за пределы облака точек))
4 Вы что то напутали и лесом и бустингом можно делать регрессию, без проблем.
3. То есть можете комбинировать и в листья моделей решающих деревьев помещать другие модели, интересно как это работает, приведите пожалуйста реальный пример.
4. Не напутал и вижу проблему, т.к. пока не встречал реализации на лесах задачи регрессии с множеством выходов (зависимых переменных) как на нейросетях.
Возьмите например функцию построения случайного леса из MQL библиотеки alglib.mqh
т.е. при количестве зависимых переменных NClasses более одной эта функция может решать только задачу классификации. Приведите свою реализацию с решением этой проблемы, и пожалуйста в коде, ведь мы на форуме программистов:)
Знаю что никто не пробовал, но вдруг:
сортировка сделок по профиту/просадке, соответственно при разделении на классы наиболе прибыльным сделкам давать больше вероятности, наиболее малоприбыльным в районе 0.5. Т.е. просто отсортировать сделки по эффективности и присвоить им вероятности, понятно что наиболее эффективных сделок окажется меньше, а шумовых больше.
стоит экспериментировать? ошибка должна уменьшиться?
Если это в тестере и для того, что бы, косвенным образом, через прибыльность сделок, выйти на правильные точки входа, то почему бы не найти их сразу и идеальные, по ценовому ряду, правда я уже это спрашивал в ветке Монте-Карло:)
тогда будет мало примеров, и на новых данных нс станет слепой потеряшкой, надо что бы она "видела" в своей жизни как можно больше
нельзя так тупо взять и подать по идеальному зигзагу - фичи потом фиг подберешь, это должен быть обоюдоострый процесс перебора всего и вся одновременно :)
уже думаю а не взять ли больше классов, вместо 2-х
тогда будет мало примеров, и на новых данных нс станет слепой потеряшкой, надо что бы она "видела" в своей жизни как можно больше
логично, но с другой стороны м.б. лучше чтоб она меньше видела и торговала только верняк, чем непрерывно сигналила и взвинчивала риск.
ну по тестовой выборке смотрю ошибки всегда, этот "верняк" только человеку таковым кажется, нс то "думает" по другому
мыслю как мыслит нейросеть.. ей пофиг верняк это или не верняк, главное как обобщить способна
так вот если всякий кал помещать в диапазон 0.5, а выбросы будут качественными трейдами, не улучшится ли обобщающая способность.. нужно проверять, естественно все это монте карлить потому что на глаз ничего не сделаешьтогда будет мало примеров, и на новых данных нс станет слепой потеряшкой, надо что бы она "видела" в своей жизни как можно больше
как вариант ....
1) Создать "идеальную торговлю" с размеченными сделками, торговля+комиссия, самый прибыльный вариант который только может быть... Получиться что то типа зигзага где на вершинках и впадинах будут сделки...
2) Строим еквити этой идеальной торговли
3) Обучаем модель. Цель обучения - достигнуть максимальной корреляции (еквити торговли модели+комиссия) с (идеальной еквити) те качество модели можно выразить одной цифровой, кф корреляции
Таким образом модель максимально мягко и максимально точно сможет подстроиться под данные
Ну и конечно при обучении про OOS не забываем
пс. Все что написал чистая теория
как вариант ....
1) Создать "идеальную торговлю" с размеченными сделками, торговля+комиссия, самый прибыльный вариант который только может быть... Получиться что то типа зигзага где на вершинках и впадинах будут сделки...
2) Строим еквити этой идеальной торговли
3) Обучаем модель. Цель обучения - достигнуть максимальной корреляции (еквити торговли модели+комиссия) с (идеальной еквити) те качество модели можно выразить одной цифровой, кф корреляции
Таким образом модель максимально мягко и максимально точно сможет подстроиться под данные
Ну и конечно при обучении про OOS не забываем
пс. Все что написал чистая теория
по сути так и сделано, но можно варьировать степень "идеального эквити", потмоу что чем оно идеальнее тем больше переобучения
ошибка на трейне: 0, на оос: 0.4.
"идеальная" торговля, с учетом оос (внутри), убыточных сделок всего 15%, что соответствует размеру ООС (здесь-20%). Несложно догадаться что будет на новых данных