Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1952
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
У меня в блоге первая сетка про эту тему
а в тестере гоняли?
сравните лучшую свою сетку с бустингом или случайным лесом, поймете что большого смысла в MLP нет
единственное преимущество - время отклика получения сигнала будет меньше. Ну это доли секунды.1) Что-то мне кажется, что не сильно поможет. Это сжатие инфы. Если сжимать мусор, то будет сжатый мусор.
2 ) Если к 2500 мусорным фичам добавить 1 хорошую, то алгоритм не особо то ее и заметит и ее влияние на итог будет если и больше 1/2500, то не намного. Пусть даже 1/100, на графике этого не заметишь.
3) Единственное, что ожидаю полезного - это то , что высококореллированные фичи как бы сольются в одну.
1) Ну "кажется" это сильный аргумент ))
2) А кто мешает перед сжатием отсеять мусорные фичи? Хоть я так и не делаю но... надо думать, надо решать, а не философствовать ...
3) алгоритмы снижения размерности можно использовать по разному, для разных задач, в том числе и для сжатия но не только
а в тестере гоняли?
сравните лучшую свою сетку с бустингом или случайным лесом, поймете что большого смысла в MLP нет
единственное преимущество - время отклика получения сигнала будет меньше. Ну это доли секунды.Они смогут работать просто на приращениях? Без формирования и отбора признаков
Они смогут работать просто на приращениях? Без формирования и отбора признаков
там нормировка не нужна, в остальном признаки любые, такие же как для MLP
там нормировка не нужна, в остальном признаки любые, такие же как для MLP
рекомендую catboost, у меня есть парсер обученной на питоне модели в mql код (только для бинарной классификации)
спасибо https://www.mql5.com/ru/users/greshnik1там нормировка не нужна, в остальном признаки любые, такие же как для MLP
Я понимаю как сетка работает, есть идеи что дальше делать, а бустинг для меня темный лес
бустинг для меня темный лес
хорошо что не рандомный )
хорошо что не рандомный )
Сначала так хотел написать)
а в тестере гоняли?
Сделал тестер в питоне, вероятности с обучениием совпадают. Если после обучения показало accuracy=65%, то в тестере столько же покажет. Тестер простенький без сл/тп.
Feature importance нету такого встроенного, предлагают входы перемешивать, хотя по идее зная веса легко посчитать вклад каждого входа.
ps давай на ты.
Сделал тестер в питоне, вероятности с обучениием совпадают. Если после обучения показало accuracy=65%, то в тестере столько же покажет. Тестер простенький без сл/тп.
Feature importance нету такого встроенного, предлагают входы перемешивать, хотя по идее зная веса легко посчитать вклад каждого входа.
ps давай на ты.
ну в лесах сразу это есть, удобнее работать, и проще по моему