Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 493

 
Maxim Dmitrievsky:

волк-форвард нужен, нельзя так оптимизировать, форвард всегда будет плохим (или случайным) в данном случае, в зависимости от того в какую фазу рынка попадете, у меня уже куча версий таких систем-миллиардников на бэктесте, которые на форварде как монетка работают ) это и называется переподгонка

А есть ли алгоритм выбора параметров системы при валкинг форварде?
Получал я десяток оптимизаций со смещением в месяц, в каждом месяце лучшие вх. параметры отличаются от параметров др. месяцев. И какой из них выбрать в работу?
 
elibrarius:
А есть ли алгоритм выбора параметров системы при валкинг форварде?
Получал я десяток оптимизаций со смещением в месяц, в каждом месяце лучшие вх. параметры отличаются от параметров др. месяцев. И какой из них выбрать в работу?

я не совсем правильно выразился, имелось в виду "что-то типа него", т.е. самооптимизирующаяся система с каким-нибудь критерием оптимизации, а в кач-ве оптимизатора можно использовать ту же НС

 
elibrarius:
А есть ли алгоритм выбора параметров системы при валкинг форварде?
Получал я десяток оптимизаций со смещением в месяц, в каждом месяце лучшие вх. параметры отличаются от параметров др. месяцев. И какой из них выбрать в работу?
Кстати, об оптимизации и обучении. У меня это занимает 23 часа, не учитывая промежуточные манипуляции. После каждого прохода (это несколько эпох) меняю выборку для обучения. Нет, не перемешиваю, а меняю, т.е, одни и те же картинки не показываю. В процессе обучения нет повторяющихся выборок.
 
Yuriy Asaulenko:
Кстати, об оптимизации и обучении. У меня это занимает 23 часа, не учитывая промежуточные манипуляции. После каждого прохода (это несколько эпох) меняю выборку для обучения. Нет, не перемешиваю, а меняю, т.е, одни и те же картинки не показываю. В процессе обучения нет повторяющихся выборок.

А какой конкретно алгоритм оптимизации? поищите такую же но с L-BFGS алгоритмом, будет в разы быстрее

и ваша НС будет обучаться, ну в 100 раз быстрее, например, не 23 часа а 10 минут (как у всех нормальных людей) :)) если у вас простой градиентный спуск с фиксированным шагом


вот сравниловка есть:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
  • docplayer.ru
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Математико-Механический факультет Кафедра Системного Программирования Корыстов Максим Андреевич Исследование алгоритмов обучения искусственной нейронной сети для задач классификации Курсовая работа Научный руководитель: Невоструев К. Н. Санкт-Петербург 2014 г. Введение 1.1 Мотивация В последнее...
 
Maxim Dmitrievsky:

А какой конкретно алгоритм оптимизации? поищите такую же но с L-BFGS алгоритмом, будет в разы быстрее

и ваша НС будет обучаться, ну в 100 раз быстрее, например, не 23 часа а 10 минут (как у всех нормальных людей) :)) если у вас простой градиентный спуск с фиксированным шагом

вот сравниловка есть:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Спасибо, почитаю.

Скорее обучения, а не оптимизации. Не простой. Уже писал - стандартный БП с имитация отжига вручную.

Возможно какие-то алгоритмы и лучше, но использую только то, что есть в среде разработки. Другие, внешние - это проблематично.

Вообще, быстрота не оч кретично, если обучать раз в 3 месяца - 23 ч это вообще тьфу. Но на 3-х месячном тесте каких либо ухудшений замечено не было. Вероятно работоспособен дольше.

 
Yuriy Asaulenko:

Скорее обучения, а не оптимизации. Не простой. Уже писал - стандартный БП с имитация отжига вручную.

Возможно какие-то алгоритмы и лучше, но использую только то, что есть в среде разработки. Другие, внешние - это проблематично.


без разницы, обучение это и есть оптимизация целевой ф-ии

точно, про отжиг писали, я с этим еще не знаком, почитаю

 
Maxim Dmitrievsky:

без разницы, обучение это и есть оптимизация целевой ф-ии

У меня при обучении нет целевой функции, т.е., изначальная классификация в обучающей последовательности отсутствует.) Эт все равно, что учить таблицу умножения с учителем, который и сам ее толком не знает. НС сама ищет пойди туда не знаю куда. Поэтому более быстрое обучение вряд-ли получится.
 
Maxim Dmitrievsky:

без разницы, обучение это и есть оптимизация целевой ф-ии

точно, про отжиг писали, я с этим еще не знаком, почитаю

Да, отжиг имитируется вручную изменением параметров обучения через N эпох. Кроме того, полностью заменяется (не перемешивается, а именно заменяется) обучающая последовательность.
 
Yuriy Asaulenko:
Да, отжиг имитируется вручную изменением параметров обучения через N эпох. кроме того, полностью заменяется (не перемешивается, а именно заменяется) обучающая последовательность.

чето прикольное, а где про такую НС подробнее почитать можно? т.е. это как бы без учителя получается но вы все равно на выход подаете что-то?

 
Maxim Dmitrievsky:

чето прикольное, а где про такую НС подробнее почитать можно? т.е. это как бы без учителя получается но вы все равно на выход подаете что-то?

Почитать теорию Хайкин Нейронные сети и Бишоп на английском - перевода нет, но вроде готовится.

Да все просто. На вход случайные сделки, на выход результат. Метод Монте-Карло называется, а он оч. не быстрый сам по себе. А уж систематизация дело самой НС.

Причина обращения: