Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ok. Но всё-таки хотелось бы о практике ещё немного: что подаём на вход, какую размерность N задать и т.д.? Если, конечно, не секрет :) Я в этом деле чайник, но готов приобщиться.
Я выше индикатор выложил. На вход подаётся угол наклона лин. регрессии. Попробуйте его на Евре 1 час запустить
Спасибо, пойду посмотрю :)
Вот еще к этой шняге Z-счет прикрутить и, имхо, буде хорошо :)
Да. Забавная вещица. Ещё раз спасибо, klot, на выходные мне хватит! :)
А вообще, любую НС можно легко программировать сразу в MQL4. Так же можно подобрать веса НС с помощью ГА МТ4 или своего собственного. Пессимизм определяется только не хваткой воображения и фантазии. В принципе, пределов нет...
Пессимизм определяется ограничениями тестера стратегий, т.е. если диапазоны входных значений велики или количество этих самых значений превышает лимит, то оптимизатор отказывается запускаться. Так что пределы все таки есть.
Сегодня наконец-то завершил сборку нейросети, написанной полностью на MQL4 c архитектурой 3:3:1 (три нейрона на входе, три входа скрытого, один на выходе). Все слои настраиваются с помощью тестерного ГА. Но трабла в том, что для 1 слоя нужно минимум 12 входных параметров, хотя бы со значениями от -1 до 1 с шагом 1 (как у Розенблата). А оптимизатор столько уже не тянет. Пришлось изголяться и упрощать первый слой.
Самопальная сетка в отличие от кем-то собранной тем хороша, что ее можно модернизировать. Например, помимо того, что первый слой пришлось делать нестандартным, еще вставил динамическую нормировку входных данных.
Сигналы на входах весьма примитивны:
Несмотря на всю вышеуказанную примитивность, тем не менее сетка оказалась шибко переобучающейся, т.е. запросто подбираются такие веса и пороги, когда результаты тестов оказываются без единой ошибки (профит фактора нет). Но после такой подгонки, сразу же начинается форвардный тест сливной по спреду. Пришлось еще поизголяться над торговой стратегией, дабы не позволить сетке подгоняться.
Овчинка выделки стоила, хотя все мозги наизнанку вывернула:
Это результаты теста. С 1 по 273 сделку - оптимизация, дальше форвардный тест.
А вот форвардный тест:
Вот результаты форвардного теста:
Что самое интересное, даже по графику видно, что участок оптимизации похуже, нежели участок форварда. Такое редко случается. Хотя этот форвард я выбрал из множества других, как наилучший, т.е. в других форвардах есть результаты и похуже, чем в оптимизации и их большинство, но тем не менее.
Пессимизм определяется ограничениями тестера стратегий, т.е. если диапазоны входных значений велики или количество этих самых значений превышает лимит, то оптимизатор отказывается запускаться. Так что пределы все таки есть.
Сегодня наконец-то завершил сборку нейросети, написанной полностью на MQL4 c архитектурой 3:3:1 (три нейрона на входе, три входа скрытого, один на выходе). Все слои настраиваются с помощью тестерного ГА. Но трабла в том, что для 1 слоя нужно минимум 12 входных параметров, хотя бы со значениями от -1 до 1 с шагом 1 (как у Розенблата). А оптимизатор столько уже не тянет. Пришлось изголяться и упрощать первый слой.
Самопальная сетка в отличие от кем-то собранной тем хороша, что ее можно модернизировать. Например, помимо того, что первый слой пришлось делать нестандартным, еще вставил динамическую нормировку входных данных.
Сигналы на входах весьма примитивны:
Несмотря на всю вышеуказанную примитивность, тем не менее сетка оказалась шибко переобучающейся, т.е. запросто подбираются такие веса и пороги, когда результаты тестов оказываются без единой ошибки (профит фактора нет). Но после такой подгонки, сразу же начинается форвардный тест сливной по спреду. Пришлось еще поизголяться над торговой стратегией, дабы не позволить сетке подгоняться.
Овчинка выделки стоила, хотя все мозги наизнанку вывернула:
Я делал нормальную сетку 256 входов, один скрытый слой на 256 нейронов. Ну и выходной слой из одного нейрона. И все это прекрасно обучал в МТ4
Правда был вариант с тремя скрытыми слоями, но они были излишними