Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Подправил файлы. А то открытие позиции происходило в одну сторону и не нормировался входной вектор.
Вот, что на дневках для СЛАУ получилось:
Оптимизация числа входов (ранг матрицы) проводился на 2007 г. Оптимальная размерность входного вектора получилась равна 49. Данные по торгам приведены за совместно с участком оптимизации.
А это нейронная сеточка потрудилась:
Число входов тоже 49. Интересно, двуслойная нелинейная сетка даст лучший результат?
Вместо х[n] лучше попробовать пороговую функцию F(x[n]):
если -A<x[n]<A то F(x[n])=0,
если x[n]>A F(x[n])=1
если x[n]<-A F(x[n])=-1
Порог A адаптивен от волатильности.
А для коэффициентов a[1]...a[n] лучше подбирать аналитическую убывающую функцию. Например: a[n]=a[1]/n.
Предположение, что например свеча 5 периодов назад может больше влиять на прогноз чем например свеча один период назад - только тема для подгонки.
При такой постановке задачи оптимизация сводится к способу (периоду) рассчета волатильности (порога А) и вида убывающей функции для коэффициентов a[n]
Я нормирую входной вектор на стандартное отклонение, а затем воздействую на него гиперболическим тангенсом. В итоге, получается то о чём Вы сказали - почти пороговая функция, только глаже и, как следствие, можно использовать для обучения НС обратное распространение ошибки. Что и реализовано.
Вопрос о необходимости введения искусственной убывающей функции для весов, с целью повышения значимости последних событий - спорен. Если действительно так, то ничто не мешает НС самой организовать в процессе обучения нужное, сколь угодно сложное затухание по амплитудам весов... Кажется.
Я нормирую входной вектор на стандартное отклонение, а затем воздействую на него гиперболическим тангенсом. В итоге, получается то о чём Вы сказали - почти пороговая функция, только глаже и как следствие можно использовать для обучения НС обратное распространение ошибки. Что и реализовано.
Вопрос о необходимости введения искусственной убывающей функции для весов, с целью повышения значимости последних событий - спорен. Если действительно так, то ничто не мешает НС самой организовать в процессе обучения нужное, сколь угодно сложное затухание по амплитудам весов... Кажется.
В принципе все так, но для того чтобы уменьшить вероятность подгонки нужно заменить по-максимуму жесткой логикой. Вопрос только в правильном выборе этой логики - соответствию реальности. Это будет робастной основой (если найдет подтверждение), а НС или другой метод адаптирует ее под текущие условия.