Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Не надо опиум предлагать народу любителям маркета ))
BestInterval с пятью выброшенными плохими интервалами можно рассматривать, как добавление десяти инпутов (каждый принимает целочисленные значения от 0 до 2500 и следующий больше предыдущего) в советник.
Получается, что всего 10 дополнительных входных параметров способны отлично обучить (и мгновенно) почти любую ТС на любом временном интервале.
У меня выходят > 1000 позиций (такая ТС) на полугодовой истории. Т.е. всего 10 параметров создают такие показатели. А что же НС, где параметров может быть на порядки больше, как и диапазоны значений?
Я к тому, что если 10 параметров достаточно для подгонки, то говорить о большем их количестве - не самообман ли (это про НС)?
Продолжу мысль. Если грубо прикинуть, сколько эти 10 параметров могут составить комбинаций (количество векторов), то это будет ~10^30. Т.е. всегда найдется одна комбинация (на самом деле их много-много больше) из этого не сильно большого количества, которая покажет отличные результаты на любых данных произвольной длины. Меня это несколько обескураживает.
BestInterval с пятью выброшенными плохими интервалами можно рассматривать, как добавление десяти инпутов (каждый принимает целочисленные значения от 0 до 2500 и следующий больше предыдущего) в советник.
Получается, что всего 10 дополнительных входных параметров способны отлично обучить (и мгновенно) почти любую ТС на любом временном интервале.
У меня выходят > 1000 позиций (такая ТС) на полугодовой истории. Т.е. всего 10 параметров создают такие показатели. А что же НС, где параметров может быть на порядки больше, как и диапазоны значений?
Я к тому, что если 10 параметров достаточно для подгонки, то говорить о большем их количестве - не самообман ли (это про НС)?
самообман, это как увеличить степень аппроксимирующго полинома, с увеличением порядка подгонка все больше и больше, вплоть до идеала. Поэтому сначала можно брать много, а потом удалять их до минимума, оставляя лучшие
жаль что обобщающая способность получается очень плохая.. но у вас я видел советник тестерЕА очень хорошо на оос работает. К слову, Вашего советника у меня не получилось так же подогнать хорошо, но я мало пытался. Еще там ошибка деление на 0 выскакивает в библиотеке EMA
Еще там ошибка деление на 0 выскакивает в библиотеке EMA
А не надо нулевые периоды использовать. Выше дописал.
самообман, это как увеличить степень аппроксимирующго полинома, с увеличением порядка подгонка все больше и больше, вплоть до идеала.
С полиномом история несколько другая, т.к. диапазон значений коэффициентов почти не ограничен.
у вас я видел советник тестерЕА очень хорошо на оос работает. К слову, Вашего советника у меня не получилось так же подогнать хорошо, но я мало пытался.
К сожалению, пока не удалось допилить до реализации боевой вариант для реала. Т.к. схема должна быть следующей
Вряд ли кто-нибудь будет использовать столь сложную схему, поэтому для простоты использования добавил это
Оно как бы говорит "не заморачивайся, ставь этот диапазон в своей ТС, хуже точно не будет".
А не надо нулевые периоды использовать. Выше дописал.
а, вон оно что, понял ) еще погоняю тогда потом, просто своих ботиков ковыряю
нужно использовать сильно регуляризованные модели, потмоу что без этого они фитятся просто даже на любой шум не значимый, я вообще на линейные перешел (добавил в RL библиотеку еще одну). обучаются очень быстро и кол-во коэф-тов маленькое, не то что у леса
нужно использовать сильно регуляризованные модели, потмоу что без этого они фитятся просто даже на любой шум не значимый, я вообще на линейные перешел (добавил в RL библиотеку еще одну). обучаются очень быстро и кол-во коэф-тов маленькое, не то что у леса
Это сколько?
Это сколько?
равно количеству признаков +1, ну коэффициенты регрессии. Только там логит регрессия с классификацией бай\селл
обобщающая способность маленькая правда, на большом интервале уже плохо фитится, на коротких нормально. Думаю еще пару тройку регрессий туда докинуть, соединить в мини НС, и хороший сортировщик фичей (по типу МГУА)
равно количеству признаков +1, ну коэффициенты регрессии. Только там логит регрессия с классификацией бай\селл
обобщающая способность маленькая правда, на большом интервале уже плохо фитится, на коротких нормально. Думаю еще пару тройку регрессий туда докинуть, соединить в мини НС
Как-то не мало выходит. Тут еще такое замечание. ML и BestInterval - разные концепции. ML ищет ТС, BestInterval - ничего не ищет.
Интересно, как сработает подобный пример. Пусть ML имеет 100 параметров и находит ТС. Что по итогу лучше будет, ML100 + BestInterval10 или ML110?
К сожалению, пока не удалось допилить до реализации боевой вариант для реала. Т.к. схема должна быть следующей
Вряд ли кто-нибудь будет использовать столь сложную схему, поэтому для простоты использования добавил это
Оно как бы говорит "не заморачивайся, ставь этот диапазон в своей ТС, хуже точно не будет".
да, схема реально сложная, не каждый "осилит" :)