Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 870

 
elibrarius:
Имею в виду сколько строк обучающих данных (или обучающих примеров).
Например 10000 строк по 15 входов

По памяти - п.1. около 5-10 тыс. Каждые неск эпох данные перемешиваются.

Через какой-то кол-во эпох обуч последовательность заменяется другой и см. п.1. И так неск раз.

Общее кол-во эпох - что-то порядка 1000. Время обучения с промежуточными перенастройками и тестами - около суток.

Приведенный выше график - это еще первые эксперименты, там проще все было.

 
Yuriy Asaulenko:

По памяти - п.1. около 5-10 тыс. Каждые неск эпох данные перемешиваются.

Через какой-то кол-во эпох обуч последовательность заменяется другой и см. п.1. И так неск раз.

Общее кол-во эпох - что-то порядка 1000. Время обучения с промежуточными перенастройками и тестами - около суток.

Приведенный выше график - это еще первые эксперименты, там проще все было.

Интересный метод - получается первичное обучение + несколько дообучений.
 
elibrarius:
Интересный метод - получается первичное обучение + несколько дообучений.

Я бы так не назвал. Просто замена обуч последовательности в ходе обучения. Чтобы не привыкала к одним и тем-же данным.)

Да, плюс еще отжиг. Т.к. использую стандартный алгоритм ВР, то параметры обучения НС при этом меняются вручную каждые неск. эпох.

ЗЫ Вот эту тему почитайте, здесь несколько подробней о структуре системы типа моей - https://www.mql5.com/ru/forum/239508

ТС на нейросети (оч. краткое руководство)
ТС на нейросети (оч. краткое руководство)
  • 2018.04.22
  • www.mql5.com
Вместо введения Типовая ТС состоит из ВР, индикаторов и логического блока принятия решений (БПР...
 
Yuriy Asaulenko:

Я бы так не назвал. Просто замена обуч последовательности в ходе обучения. Чтобы не привыкала к одним и тем-же данным.)

По моему это и есть дообучение на новых данных. Вы же не сбрасываете веса сети после обучения на первом блоке данных.

 
elibrarius:

По моему это и есть дообучение на новых данных. Вы же не сбрасываете веса сети после обучения на первом блоке данных.

Конечно не сбрасываю. Но нет никаких новых данных - новая последовательность на все той-же истории. Это продолжение того-же обучения, единый процесс. Этак каждую эпоху можно трактовать как дообучение. Ну, вообще, вопрос скорее терминологии.

 
elibrarius:
регрессия же без скрытых слоев вроде...
Пора на R переходить, я на alglib-е НС пробовал - в десятки раз медленнее считает ту же сеть, что и на R (типа сутки против 30-60 минут). Плюс в alglib максимум 2 скрытых слоя, а по вашим наблюдениям нужно 3 последовательных преобразования, т.е. 3 слоя.
Регрессия линейная. Р не хОчу, питон поковырял - но не вижу большого смысла.
 
Yuriy Asaulenko:

Конечно не сбрасываю. Но нет никаких новых данных - новая последовательность на все той-же истории. Это продолжение того-же обучения, единый процесс. Этак каждую эпоху можно трактовать как дообучение. Ну, вообще, вопрос скорее терминологии.

Ну правильно понимать друг друга (иметь одинаковое понятие о терминах) - это важно.
Каждая эпоха на одинаковых данных это обучение. Как у нас зазубривание.
На новых, без сброса весов - дообучение. А у вас они новые т.к. НС о них не знала при первичном обучении.
 

Регрессия это прогноз следующей цены. В отличие от классификации - прогнозируется не направление или тип сделки, а именно цена, со всеми знаками после запятой. 

Есть линейная регрессия, есть нелинейная. Арима, гарч, и даже нейронка с правильной конфигурацией (например 1 выход без активации) - это всё тоже регрессия.

 
Dr. Trader:

Регрессия это прогноз следующей цены. В отличие от классификации - прогнозируется не направление или тип сделки, а именно цена, со всеми знаками после запятой. 

Есть линейная регрессия, есть нелинейная. Арима, гарч, и даже нейронка с правильной конфигурацией (например 1 выход без активации) - это всё тоже регрессия.

К чему это вообще было? Я про логит регрессию писал, в подавляющем большинстве случаев можно ограничиться ей для классификации, и не парить мозг с НС. Быстро и чОтко, никакого оверфита
 

Побеседовал с Сан Санычем. Остановились на том что я подготавливаю файл для тренировки регресси и дальше продолжим что да как. Так вот, Братцы я сейчас делаю выгрузку и такого понапридумывал что у многих просто тяму не хватит что так можно сделать. Как вам адаптивная целевая для регресси???? ААА??

Не факт что это хорошо, но проверит думаю такой вариант стоит. :-)